СМИ продолжают бороться с OpenAI, Google и Microsoft за правду в новостях, сообщает securitylab.ru.
Фото: freepik.com
Новые исследования показывают, что поисковые системы на базе искусственного интеллекта (ИИ) от таких компаний, как OpenAI, Google и Microsoft, могут непреднамеренно вводить пользователей в заблуждение и распространять дезинформацию. Проблема кроется в глубинных алгоритмах и недостатках в обучении моделей.
Правительство Новой Зеландии сейчас разрабатывает законопроект , который обяжет крупные технологические компании, такие как Google и Meta, платить новостным изданиям за использование их контента в своих сервисах. Однако почему-то власти решили не включать в этот документ вопросы, связанные с ИИ.
Пол Голдсмит, министр по вопросам СМИ и коммуникаций Новой Зеландии, заявил, что в законопроект внесут некоторые поправки, но они не будут касаться влияния генеративного ИИ на поиск новостей. По его словам, тему рассмотрят отдельно в будущем.
При этом законопроект предоставит министру право определять, какие организации подпадут под действие нового закона. Возможно, в этот список все же войдут крупные корпорации вроде Microsoft и OpenAI.
Реакция медиакомпаний на развитие ИИ в новостной сфере неоднозначна. С одной стороны, умные чат-боты, такие как Google Gemini, Microsoft Copilot и OpenAI ChatGPT, используют информацию с новостных сайтов для ответов на запросы пользователей и для обучения своих моделей. Это вызывает обеспокоенность у многих издателей.
Некоторые крупные медиакорпорации, включая News Corp, Financial Times и немецкую Axel Springer, решили сотрудничать с ИИ-разработчиками и уже заключили легальные соглашения на использование своих материалов. Это может быть выгодно обеим сторонам, так как компании, занимающиеся ИИ, нуждаются в большом объеме данных, а медиа — в продвижении.
Другие издания, например The New York Times и Alden Global Capital (второй по величине владелец газет в США), выбрали путь конфронтации. Они подали иск против Microsoft и OpenAI, обвинив их в незаконном использовании новостных статей для обучения ИИ-ассистентов. Alden утверждает, что эти компании без разрешения обрабатывают миллионы их защищенных авторским правом материалов.
В Новой Зеландии ведущий новостной издатель Stuff в 2023 году запретил ChatGPT использовать свои публикации. Как показало последующее исследование, после этого решения видимость контента Stuff в поисковиках сильно снизилась.
Анализ результатов поиска в системах Microsoft и Google, а также ответов их чат-ботов Copilot и Gemini выявил тревожную тенденцию. Разнообразие источников в поисковой выдаче сокращается в принципе. Хотя традиционные СМИ все еще присутствуют в результатах, доля «других источников» существенно выросла за последний год.
Особую озабоченность вызывает то, какие именно ресурсы ИИ-системы предлагают в качестве актуальных новостей. Все чаще в выдаче появляются ссылки на непрофильные площадки — мелкие отраслевые форумы и корпоративные пресс-релизы.
Проблема усугубляется тем, что чат-боты Google Gemini и Microsoft Copilot часто выдают устаревшую информацию, не предоставляют ссылок на первоисточники и не указывают, откуда взяты данные. При просьбе уточнить источники они обычно уклоняются от прямого ответа.
Эксперты призывают пользователей критически оценивать сведения, полученные через ИИ-поисковики и чат-боты. Хотя в будущем системы могут стать точнее, на данный момент их надежность вызывает серьезные сомнения.
Источник securitylab.ru