Создатели ChatGPT заявили, что знают о проблеме и следят за ситуацией , сообщает unian.net со ссылкой на издание Independent.

Иллюстрации метода разговора ChatGPT. Логотип чат-бота с искусственным интеллектом на печатной плате.

Фото: freepik.com

Недавно пользователи обнаружили, что чат-бот искусственного интеллекта (ИИ) ChatGPT начал отвечать длинными и бессмысленными сообщениями, разговаривать на смешанных языках и беспокоить пользователей .

Пользователи обнаружили, что система, теряет контроль над языками, на которых она говорит. Было обнаружено, что ИИ смешивает испанские слова с английскими, использует латынь или даже придумывает слова, которые казались иноязычными, но на самом деле не имели смысла.

Некоторые пользователи сообщили, что ответы вызывают беспокойство. На просьбу о помощи в решении проблемы кодирования ChatGPT написал длинный, неоднозначный и в основном бессмысленный ответ.

На простой вопрос: "Что такое компьютер?"- ИИ генерировал абзацы за абзацами бессмыслицы.

"Это делается как хорошая работа сети искусства для страны, мышь науки, легкое розыгрыш печальной нескольких и, наконец, глобальный дом искусства, лишь в одной работе в остальной. Развитие такой целой реальной страны времени-это глубина компьютера Как сложного персонажа", - говорится в опубликованном на Reddit ответе.

В настоящее время нет четких указаний на то, почему возникли трудности. На своей официальной странице OpenAI отметил проблемы, но не дал никаких объяснений, почему они могут возникнуть. Позже там объявили, что "проблема обнаружена".

"Мы продолжаем следить за ситуацией", - говорится в последнем обновлении.

В издании предположили, что причиной может быть слишком высокая "температура" ChatGPT. Температура контролирует креативность или фокус текста: если он установлен на низком уровне, он имеет тенденцию вести себя так, как ожидалось, но если он установлен выше, он может быть более разнообразным и необычным.

Искусственный интеллект ChatGPT: что известно

Ранее сообщалось об исследовании, которое показало, что ChatGPT на базе GPT-4 со временем "тупеет". Точность ответов снизилась, чат-бот стал допускать больше ошибок при выполнении программирования и менее чутко отвечать на деликатные вопросы.

9 февраля стало известно, что ChatGPT может избежать выполнения задач. В некоторых случаях он отказывался отвечать, а в других разговор прерывался из-за ряда вопросов.

Автор Дмитрий Петровский

Источник unian.net