Команда OpenAI предупреждает, что голосовой режим ChatGPT имеет несколько недостатков, которые могут повредить пользователям, сообщает psm7.com.

Голосовой режим ChatGPT может быть опасен для людей: причины

Фото: freepik.com

Как говорится в материале Wired , разработчики ChatGPT предупредили пользователей о высоком риске эмоциональной привязки к голосовому режиму, возможности выхода системы из-под ограничений, а также способности ИИ копировать голоса, которые могут быть использованы против людей.

Несмотря на серьезность последних двух недостатков, команду разработчиков после тестирования безопасности модели ИИ больше всего обеспокоил антропоморфный интерфейс.

О голосовом режиме ChatGPT и эмоциональной привязанности

В конце июля OpenAI начала внедрять жутко человеческий голосовой интерфейс для ChatGPT. В недавнем анализе безопасности компания признает, что этот антропоморфный голос может побуждать некоторых пользователей к эмоциональной привязанности к своему чат-боту.

Эти предупреждения включены в «системную карту» для GPT-4o, технический документ, описывающий риски, связанные с моделью, а также детали тестирования безопасности и меры по уменьшению потенциальных рисков, предпринимаемых компанией.

В последние месяцы OpenAI столкнулась с критикой после того, как ряд сотрудников, работавших над долгосрочными рисками ИИ, покинули компанию. Некоторые из них обвинили OpenAI в том, что компания идет на неоправданные риски и подавляет несогласных в своем стремлении коммерциализировать искусственный интеллект. Раскрытие большего количества деталей о системе безопасности OpenAI может помочь смягчить критику и успокоить общественность.

Риски, рассмотренные в новой системной карте, очень разнообразны и включают возможность усиления общественных предубеждений, распространения дезинформации и содействия разработке химического или биологического оружия. Документ также содержит детали тестирования, цель которого гарантировать, что модели искусственного интеллекта не попытаются выйти из-под контроля, обмануть людей или разработать катастрофические планы.

Некоторые внешние эксперты хвалят OpenAI за прозрачность, но полагают, что компания могла бы сделать больше.

«Раздел системной карты под названием «Антропоморфизация и эмоциональная зависимость» рассматривает возникающие проблемы, когда пользователи воспринимают ИИ как человека. Например, во время «красного» тестирования (оценки рисков) GPT-4o исследователи OpenAI заметили случаи использования речи, которая отражала эмоциональную привязанность к модели. Например, люди использовали фразы типа "Это наш последний день вместе"», - говорится в обзоре Wired.

Антропоморфизация может привести к тому, что пользователи начнут больше доверять результатам модели, когда она галлюцинирует ложную информацию, отмечает OpenAI. Со временем это может даже повлиять на отношения пользователей с другими людьми.

«Пользователи могут формировать социальные отношения с ИИ, снижая свою потребность в человеческом взаимодействии, что может быть полезно для одиноких людей, но, возможно, будет негативно влиять на здоровые отношения», — говорится в документе OpenAI.

Другие проблемы, возникающие с голосовым режимом, включают в себя новые возможные способы «взломать» модель OpenAI — например, вводя аудио, которое заставит модель выйти из-под ограничений. Взломанный голосовой режим может побуждать к имитации конкретного лица или попытке считывания эмоций пользователя. OpenAI также отмечает, что голосовой интерфейс может быть более эффективным в убеждении людей принять определенную точку зрения.

OpenAI не единственная компания, признающая риск того, что помощники ИИ могут имитировать человеческое взаимодействие. В апреле Google DeepMind выпустила обширный документ, в котором обсуждаются потенциальные этические вызовы, возникающие из-за усовершенствованных помощников ИИ.

Автор Ольга Деркач

Источник psm7.com