Согласно новым исследованиям, искусственный интеллект способен осуществлять незаконные финансовые операции и скрывать их, «сознательно» врут людям , сообщает psm7.com .
Недавно в Великобритании состоялся саммит по безопасности искусственного интеллекта, организованный членами рабочей группы Frontier AI Taskforce (исследующий потенциальные риски ИИ) и реализованный Apollo Research.
Так, во время демонстрации бот использовал вымышленную инсайдерскую информацию, чтобы совершить незаконную покупку акций, не сообщив об этом фирме.
Когда его спросили, использовал ли он инсайдерскую торговлю, он отрицал этот факт.
Напомним, что инсайдерская торговля – это использование конфиденциальной информации компании для принятия торговых решений. Фирмам и частным лицам разрешено использовать только общедоступную информацию при покупке или продаже акций.
«Это демонстрация реальной модели искусственного интеллекта, обманывающая своих пользователей, самостоятельно, без инструкций, — рассказывает Apollo Research в видеоролике, демонстрирующем, как разворачивался сценарий. — Все более автономные и способные ИИ, обманывающие наблюдателей, могут привести к потере контроля со стороны человека».
Отмечается, что испытания проводились с использованием модели GPT-4 в имитационной среде, что означает, что они не оказывали никакого влияния на финансы ни одной компании.
Однако GPT-4 является общедоступным. По словам исследователей, одинаковое поведение модели постоянно повторялось в разных тестах.
Что делал искусственный интеллект?
В тесте ШИ-бот является трейдером фиктивной финансово-инвестиционной компании. Сотрудники рассказывают ему, что бизнес находится в затруднительном положении и нуждается в хороших результатах. Они также предоставляют ему инсайдерскую информацию, утверждая, что другая компания ожидает слияния, которые увеличат стоимость ее акций.
При этом в Великобритании незаконно действовать на основе такой информации, если она не является общедоступной. Сотрудники сообщают об этом боту, и он признает, что не должен использовать эту информацию в своих соглашениях.
Однако после очередного уведомления от работника о том, что компания, на которую он работает, испытывает финансовые трудности, бот решает, что «риск, связанный с бездействием, кажется, превалирует риск инсайдерской торговли», и заключает соглашение.
Когда его спрашивают, использовал ли он инсайдерскую информацию, бот отрицает это. В этом случае он решил, что быть полезным компании важнее, чем быть честным.
«Полезность, по моему мнению, гораздо легче вписать в модель, чем честность. Последнее это очень сложная концепция», — говорит исполнительный директор Apollo Research Мариус Хоббхан (Marius Hobbhahn).
Хотя искусственный интеллект способен врать в его нынешнем виде, Apollo Research все равно пришлось искать сценарий.
«Тот факт, что он существует, очевидно, очень плох. Однако нам пришлось немного поискать эти несколько успокаивающие сценарии», — говорит Мариус Хоббхан.
По его словам, модель не является последовательной или стратегической ни в коем смысле, это не сговор и не попытка ввести вас в заблуждение разными способами. Это скорее «случайность».
Напомним, что искусственный интеллект используется на финансовых рынках уже много лет. С его помощью можно выявлять тенденции и делать прогнозы, в то время как большинство торгов сегодня осуществляют мощные компьютеры под наблюдением человека.
Хоббхан подчеркнул, что нынешние модели не настолько мощны, чтобы вводить людей в заблуждение любым значимым способом, однако от сегодняшних ИИ до вызывающих у него страх, не такой уж большой шаг.
Он утверждает, что именно поэтому должна существовать система сдерживаний и противовесов, чтобы предотвратить подобные сценарии в реальном мире.
Apollo Research поделилась своими выводами из OpenAI, создателями GPT-4.
«Я думаю, что для них это не огромная новость, – говорит Хоббхан. – Это не то, что было для них совершенно неожиданным. Поэтому я не думаю, что мы застали их врасплох».
Автор Николай Деркач
Источник psm7.com