Институт искусственного интеллекта при Стэнфордском университете в Калифорнии, прародителе самого известного центра высоких технологий «Силиконовая долина», провёл опрос среди своих исследователей и обнаружил, что больше трети из них считают, что искусственный интеллект чреват «катастрофой ядерного уровня» , сообщает eadaily.com .

Сдавать экзамен будет робот. Как в России развивают искусственный интеллект  | Образование | Общество | Аргументы и Факты

Понятно, что среди оценок было достаточно и хвалебных, радующихся тому, что «интерес политиков к ИИ растёт», но 36% голосов «против» о чём-то говорят. О чём?

Следует уточнить, что эти 36% не выступают категорически против использования искусственного интеллекта (ИИ) человеком или даже ошибочного её использования — этой всё возрастающей угрозе для мира. Их протест связан с самим процессом самостоятельного принятия решения ИИ. В качестве эксперимента они даже попытались заставить автономную систему искусственного интеллекта ChaosGPT «уничтожить человечество», но безрезультатно. Пока. Однако в полном соответствии с законом Энгельса о переходе количественных изменений в качественные сегодня многие эталоны ИИ достигли точки насыщения, когда дальнейшего улучшения практически не происходит, и исследователи должны разрабатывать всё новые и новые эталоны в ответ на требования общества. Именно эти запросы многократно ускорили индустриальное развитие ИИ, которое теперь значительно опережает его академические исследования. Пошел в дело бизнес! Вывернувшись из-под контроля учёных, тот же ChatGPT, прошедший многочисленные эталонные испытания, всё чаще ловят на неверной информации.

К примеру, Google попросил своих сотрудников протестировать собственный чат-бот с ИИ Bard перед тем, как предложить его пользователям. Вот их реакция: Bard оказался «патологическим лжецом», «достойным презрения». Когда его спрашивали, как посадить самолет, он регулярно давал советы, которые могли привести к крушению, а его советы по подводному плаванию «вели бы к серьезным травмам или смерти».

Google все равно запустил Bard в жизнь.

Как сообщает Project Syndicate, недавно в качестве теста один ученый-философ спросил ChatGPT «существует ли в моральной философии отчетливо женский стиль?» и обсудил ответ с коллегами. Они посчитали, что ответ «это- довольно банальное эссе, но, по крайней мере, оно понятно, грамматично и затрагивает вопрос, что делает его лучше, чем эссе многих наших студентов». Другими словами, ChatGPT прошел тест Тьюринга, демонстрируя разумное поведение, неотличимое от человеческого. Именно эта технология уже сейчас становится кошмаром для преподавателей академических дисциплин, и ее широкое внедрение может иметь катастрофические последствия для студентов, меняющих свой интеллект на ставший модным искусственный.

Вдобавок и этические проблемы с ИИ нарастают комом — такие как предвзятость и дезинформация. С ростом популярности таких моделей ИИ, как DALL-E 2, Stable Diffusion и тот же ChatGPT, этические злоупотребления ИИ становятся уже не ошибкой, а «пожеланием заказчика». За 10 лет количество инцидентов и противоречий, связанных с ИИ, увеличилось в 26 раз, свидетельствует база данных AIAAIC — независимого репозитория данных, отражающих случаи неэтичного использования ИИ. Как пример этому, исследование упоминает поддельное видео капитуляции президента Украины Владимира Зеленского в 2022 году и информацию об использовании тюрьмами США технологии мониторинга звонков своих заключенных.

Промежуточный вывод — всплеск интеллектуальной лжи от ИИ свидетельствует о всё более широком использовании технологий искусственного интеллекта, с одной стороны, и возможностях злоупотребления им с другой. Причем, стремительно растёт число способов, которыми искусственный интеллект может причинять вред. Разработчики ИИ всё больше испытывают двойственность в отношении будущего этой технологии. Только 57 процентов из них считают, что «прогресс в исследованиях» прокладывает путь к созданию искусственного общемирового интеллекта, что весьма напоминает американскую «Матрицу». Большинство — 73% опрошенных исследователей считают, что «искусственный интеллект вскоре может привести к революционным изменениям в обществе». И независимо от того, находимся ли мы на пути к ядерной катастрофе или к социальному взрыву, Стэнфордский университет нам предлагает «пристегнуть ремни».

Симптоматично, что первыми бьют тревогу сами специалисты: «Должны ли мы автоматизировать все рабочие места, включая те, которые приносят человеку удовлетворение? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могли бы превзойти нас числом, перехитрить… и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — выступили с открытым письмом западные технические светила, поддержанные в том числе и Илоном Маском. Они считают необходимым взять шестимесячную паузу в создании самых передовых форм искусственного интеллекта, поскольку очевидно, что быстрый прогресс в этой области легко может стать очередным «ящиком Пандоры», с которым человечество сталкивалось уже не раз.

The Economist приводит и конкретный пример: новые «большие языковые модели» (LLM), поддерживающие Chatgpt, удивили даже собственных создателей неожиданно возикшими возможностями — от решения логических головоломок и написания компьютерного кода до идентификации фильмов по кратким описаниям сюжета. Они способны моделировать отношения людей с компьютерами, знаниями и даже с самими собой. Сторонники ИИ утверждают, что такие LLM способны разрабатывать новые лекарства и даже генерировать решения проблем термоядерной энергетики. Но то, что возможности ИИ уже опережают интеллект их создателей, грозит воплотить в реальность научно-фантастический сценарий «машины, перехитрившей своего изобретателя».

И это не фантастика, что в ноябре прошлого года, когда был выпущен Chatgpt, только за неделю им воспользовался миллион человек. За два месяца — 100 миллионов. Чат-бот стал писать школьные сочинения и свадебные речи, Microsoft тут же включил его в свою поисковую систему Bing.

О чём в этой связи думает «просвещённый мир»? Великобритания торопится увеличить инвестиции и превратиться в «сверхдержаву искусственного интеллекта». Администрация Байдена запрашивает мнение общественности о том, как мог бы выглядеть свод правил для ИИ. ЕС занимает более жесткую позицию: Брюссель разрабатывает закон, классифицирующий различные виды использования ИИ по степени риска и требующий все более строгого мониторинга и раскрытия информации по мере того, как степень риска возрастает, а некоторые виды использования ИИ запрещает совсем (подсознательная реклама, удаленная биометрия). Китай требует от фирм регистрировать продукты с искусственным интеллектом и проходить проверку на безопасность перед выпуском.

Но несомненно одно: сейчас лучше не спешить и прежде, чем «откупорить» очередной «ящик», хорошо бы заранее знать, в какую сторону от него отпрыгнуть…

Автор Сергей Скороходов

Источник eadaily.com