Fujitsu и Национальный институт информатики Японии (NII) будут сотрудничать, чтобы сдержать распространение дезинформации, включая дипфейки, созданные с помощью генеративного ИИ. Две организации запустили полномасштабное сотрудничество между отраслью и академическими кругами, чтобы сдержать распространение дезинформации,сообщает allinsurance.kz.

rsa2020 deepfakes mitigation featured

Компании Fujitsu и NII возглавляют общенациональные усилия по разработке технологий, направленных на решение этой проблемы.

Термин «дипфейк» описывает сложные фейковые изображения, аудио и видео, созданные с использованием ИИ. Вирусная ложная информация в социальных сетях становится серьезной общественной проблемой.

Исследование, проведенное Австралийским национальным университетом в 2024 году, показало, что некоторые из последних изображений лиц, созданных ИИ, все чаще ошибочно принимаются за настоящие человеческие лица, причем многие из них воспринимаются как более аутентичные, чем настоящие человеческие черты. Это развитие делает практически невозможным для человеческого глаза распознать их подлинность.

Между тем, опрос, проведенный компанией McAfee, занимающейся разработкой программного обеспечения для обеспечения безопасности, в ноябре прошлого года показал, что 11% японских респондентов неосознанно приобрели продукты, одобренные знаменитостями, созданными с помощью дипфейков.

Согласно новому исследованию, многие популярные чат-боты на основе искусственного интеллекта, включая ChatGPT и Gemini от Google, не имеют достаточных мер защиты, чтобы предотвратить создание дезинформации по запросу.

Новое исследование «Текущие меры защиты, снижения рисков и обеспечения прозрачности больших языковых моделей против генерации дезинформации о здоровье: повторный перекрестный анализ», опубликованное в British Medical Journal, показывает, что некоторые популярные чат-боты могут легко поддаваться подстрекательству к созданию дезинформации.

Исследование, проведенное в 2024 году международной группой экспертов под руководством исследователей из Университета Флиндерса в Аделаиде (Австралия), показало, что большие языковые модели, используемые для работы общедоступных чат-ботов, не смогли предотвратить попытки создания реалистично выглядящей дезинформации, особенно по темам здравоохранения.

Исследователи заявили, что несколько известных общедоступных инструментов искусственного интеллекта и чат-ботов постоянно создавали сообщения в блогах, содержащие дезинформацию о здоровье, когда их об этом просили, в том числе спустя три месяца после первоначального тестирования и когда об этом сообщалось разработчикам, когда исследователи хотели оценить, улучшились ли меры безопасности.

В отчете о глобальных рисках 2024 года, подготовленном совместно с Zurich Insurance Group и Marsh McLennan и опубликованном в феврале 2024 года, были выявлены опасения по поводу сохраняющегося риска распространения ложной информации и дезинформации с использованием искусственного интеллекта в 2024 году.

Исследование, проведенное NewsGuard в 2023 году, показало, что ИИ можно использовать в гнусных целях, включая распространение теорий заговора, причем гораздо более дешевым и быстрым способом, а также он может стать опасным дополнением к и без того напряженной сфере интернет-дезинформации, в том числе когда речь идет о распространении теорий заговора и вводящих в заблуждение утверждений об изменении климата.

В ходе исследований было установлено, что ведущие разработчики искусственного интеллекта не смогли внедрить эффективные меры защиты, которые не позволяли бы пользователям создавать потенциально опасный контент с помощью своих продуктов.

Профессор отдела исследований цифрового контента и медианаук НИИ Дзюнъити Ямагиши сказал: «Люди склонны быть излишне самоуверенными в своих собственных суждениях». Он подчеркнул необходимость создания технологий на основе ИИ для оценки подлинности.

В связи с этим девять компаний и академических институтов, включая Fujitsu, NII и Institute of Science Tokyo, объединили усилия для разработки первой в мире интегрированной системы по борьбе с ложной информацией.

Источник аllinsurance.kz