ИИ не принимает решения сам, а значит, до восстания машин еще далеко, сообщает securitylab.ru.
Фото: freepik.com
Ученые из Университета Бата в Великобритании и Технического университета Дармштадта в Германии провели исследование , которое может изменить наше представление о возможностях и угрозах искусственного интеллекта. Результаты их работы показывают, что крупные языковые модели (LLM), такие как ChatGPT, не способны самостоятельно обучаться или приобретать новые навыки без инструкций.
Модели полностью предсказуемы — это фактически развенчивает популярные мифы о потенциальном «восстании машин» и экзистенциальной угрозе человечеству со стороны ИИ. Ключевой вывод в том, что LLM нужны четкие указания для любых задач, несмотря на их способность следовать инструкциям и демонстрировать высокий уровень владения языком.
Авторы исследования подчеркивают: текущие возможности нейросетей далеки от концепции искусственного общего интеллекта (AGI), которую продвигают такие влиятельные фигуры, как Илон Маск и бывший главный научный сотрудник OpenAI Илья Суцкевер. AGI предполагает способность машины обучаться и обрабатывать информацию на уровне человеческого интеллекта.
Ученые охарактеризовали существующие LLM как «априори контролируемые, предсказуемые и безопасные». По их словам, даже по мере увеличения обучающих баз, ИИ можно продолжать использовать без опасений. Доктор Хариш Тайяр Мадабуши, специалист по компьютерным наукам из Университета Бата и соавтор исследования, отмечает , что распространенное мнение об угрозе человечеству со стороны этого типа ИИ препятствует широкому внедрению и развитию технологий, отвлекая наше внимание от реальных проблем.
Для проверки своих гипотез исследователи протестировали способность LLM выполнять указания, с которыми модели никогда ранее не сталкивались. На некоторые вопросы алгоритм смог ответить без предварительного обучения или подсказок, но, как говорят авторы работы, это скорее указывает на хорошо известную способность ИИ выводить решение задач на основе нескольких примеров (такая схема называется «контекстное обучение»).
Доктор Тайяр Мадабуши еще раз заверяет: опасения по поводу того, что более крупные модели эволюционируют и приобретут потенциально опасные способности к рассуждению и планированию, не обоснованы.
И все же исследователи признают: потенциальное злоупотребление ИИ, например, для генерации фейковых новостей, все еще требует внимания. Дипфейки и ИИ-боты могут нарушить ход избирательных кампаний и развязать руки мошенникам. Тем не менее, доктор Тайяр Мадабуши считает, что вводить жесткие регуляторные меры еще рано.
Источник securitylab.ru