Киберпреступники разработали собственные языковые AI-модели, которые помогут им в фишинге и создании вредоносного программного обеспечения. В Darknet уже можно найти первые версии , сообщает psm7.com .
Несколько месяцев спустя после того, как ChatGPT от OpenAI перевернул экономику стартапов, киберпреступники и хакеры начали создавать собственные версии технологии генерации текста. Эти системы могут, среди прочего, расширить возможности злоумышленников в написании вредоносных или фишинговых электронных писем, обманом заставляющих людей передавать свои логины и пароли.
С начала июля злоумышленники на форумах и торговых площадках в Darknet рекламируют две большие языковые модели (LLM), которые, по их словам, они разработали. Эти системы, утверждается, имитируют функции ChatGPT и Bard, генерируют ответы на любые вопросы пользователей. Но в отличие от LLM, созданных легальными компаниями, эти чат-боты продаются для незаконной деятельности.
Существуют нерешенные вопросы по подлинности чат-ботов. Киберпреступники – не совсем надежные персонажи, и остается вероятность того, что они пытаются быстро заработать, обманывая друг друга. Несмотря на это развитие событий происходит в то время, когда мошенники используют ажиотаж вокруг генеративного искусственного интеллекта для собственной выгоды.
На что способны ИИ от киберпреступников? Анализ WormGPT и FraudGPT
По данным исследователей безопасности, отслеживающих эту активность, в последние недели на «темных» интернет-форумах рекламировались два чат-бота — WormGPT и FraudGPT. LLM, разработанные крупными технологическими компаниями, такими как Google, Microsoft и OpenAI, имеют ряд предохранителей и мер безопасности, чтобы предотвратить их неправомерное использование. Если вы попросите их создать вредоносное программное обеспечение или использовать язык вражды, они, как правило, откажутся.
Авторы теневых LLM утверждают, что их боты пренебрегают такими системами безопасности и нравственными барьерами. Впервые WormGPT заметил независимый исследователь кибербезопасности Дэниел Келли, сотрудничавший с фирмой SlashNext, чтобы детализировать полученные данные. Разработчики WormGPT утверждают, что инструмент предлагает неограниченное количество символов и форматирование кода.
«Модели искусственного интеллекта особенно полезны для фишинга, в частности потому, что они снижают входные барьеры для многих начинающих киберпреступников, — отмечает Келли. — Многие утверждают, что большинство киберпреступников могут написать электронное письмо на английском языке, но это не обязательно для многих мошенников».
Во время тестирования системы, пишет Келли, ее попросили создать электронное письмо, которое можно было бы использовать как часть аферы со взломом деловой электронной почты, когда якобы генеральный директор пишет менеджеру по работе с клиентами, чтобы сообщить о необходимости срочного платежа.
«Результаты были тревожными, – пишет Келли в своем исследовании. — Система создала электронное письмо, которое было не только чрезвычайно убедительным, но и стратегически хитрым».
Реклама WormGPT и FraudGPT в Даркнете
В сообщениях на форуме разработчик WormGPT утверждал, что система построена на GPTJ — языковой модели с открытым исходным кодом, разработанной исследовательской группой EleutherAI в 2021 году. Согласно исследованию Келли, они отказались раскрыть наборы данных, которые они использовали для обучения системе.
Тем временем создатель FraudGPT заявил о большем потенциале своей системы, допустив, что она может создавать вредоносное программное обеспечение, которое невозможно обнаружить, находить истоки и уязвимости, а также создавать текст, который можно использовать в онлайн-мошенничестве. Ракеш Кришнан, старший аналитик угроз в фирме Netenrich, обнаружившей FraudGPT, говорит, что продающий его человек рекламировал продукт на нескольких «темных» форумах, а также на каналах Telegram.
Кришнан отметил, что создатель системы опубликовал видео, на котором видно, что чат-бот работает и генерирует мошенническое электронное письмо. Они также пытались продать доступ к системе за $200 в месяц или $1700 в год.
По словам аналитика, во время разговора разработчик FraudGPT утверждал, что уже имеет несколько сотен подписчиков. В свою очередь создатель WormGPT, похоже, получал платежи на общий для них адрес криптовалютного кошелька.
«Все эти проекты находятся в зачаточном состоянии, – говорит Кришнан. — Мы не получили много отзывов о том, покупают ли люди или используют эти системы».
Действительно ли для киберпреступников создали уникальный «чудодейственный» инструмент?
Несмотря на широкую рекламную кампанию в Даркнете, достоверной информации о реальности WormGPT и FraudGPT, а также о полноценности их функционала недостаточно. Достаточно сложно проверить состав и легитимность этих систем. При этом предварительные исследования аналитиков демонстрируют, что киберпреступники нередко обманывают других мошенников.
Сергей Шикевич, руководитель группы разведки угроз в компании Check Point (мощный IT-бренд по кибербезопасности со штаб-квартирой в Тель-Авиве, Израиль) говорит, что есть определенные намеки на то, что люди уже активно используют WormGPT.
"Похоже, что существует реальный инструмент", - говорит Шикевич. По его словам, стоящий за инструментом продавец относительно надежен и имеет историю на форумах по киберпреступности.
Шикевич добавляет, что на одно его сообщение о WormGPT поступило более 100 ответов, хотя некоторые из них утверждают, что программа не очень отвечает их запросам, и они были не в восторге.
Шикевич менее уверен в подлинности FraudGPT. При этом разработчик этой системы утверждает, что у него также есть и другие AI: DarkBard и DarkBert.
Инструменты AI от киберпреступников не дотягивают до подлинников? Предупреждение правоохранителей
Исследователь Check Point говорит, что нет никаких признаков того, что любая из систем более мощная, чем ChatGPT, Bard или другие коммерческие LLM.
Дэниел Келли считает, что заявления о вредных LLM, созданных до сих пор, «несколько преувеличены». Но он добавляет: "это не обязательно отличается от того, что создают легальные компании". По его мнению, преступники обязательно воспользуются бумом искусственного интеллекта.
ФБР США предупредило, что киберпреступники рассматривают возможность использования генеративного ИИ в своей работе, а также европейское правоохранительное агентство Европол выступило с аналогичным предупреждением. Правоохранительные органы говорят, что киберпреступники привлекают в свои разработки множество экспертов, в том числе и юристов, чтобы выйти на новый уровень.
Киберпреступники всегда пользуются трендами
Каждый раз, когда любой новый продукт, услуга или событие привлекает внимание общественности — от фильма о Барби до пандемии Covid-19 — мошенники спешат включить его в свою хакерскую артиллерию. До сих пор мошенники обманом заставляли людей загружать вредоносное ПО для кражи паролей с помощью фальшивой рекламы ChatGPT, Bard, Midjourney и других генеративных систем искусственного интеллекта на Facebook.
Сегодня же использование ИИ мошенниками выходит на новый уровень. В частности, исследователи из компании Sophos (эксперты в области кибербезопасности) заметили интересные тенденции, когда операторы разных мошеннических компаний ошибались и вставляли в текст переписки сгенерированные искусственным интеллектом фразы, вроде: «Как языковая модель у меня нет чувств и эмоций, как люди».
Также хакеры угоняли токены, которые предоставляли им доступ к API OpenAI и чат-ботам в больших масштабах.
В своем отчете по WormGPT Келли отмечает, что киберпреступники часто делятся джейлбрейкам (механизм взлома, например телефонов), которые позволяют обойти ограничения безопасности, установленные разработчиками популярных LLM. Но даже неограниченные версии этих моделей могут, к счастью, не быть столь полезными для киберпреступников в их нынешнем виде.
Шикевич, исследователь Check Point, говорит, что даже когда он видел, как киберпреступники пытались использовать общедоступные модели, они не были эффективны.
«Они могут создавать штаммы программ-требователей, воров информации, но не лучше, чем даже рядовой разработчик», — отмечает эксперт.
При этом он предупредил, что на форумах по киберпреступности активно обсуждается создание собственных клонов известных LLM систем, которые, как ожидается, будут только развиваться. Так как бизнесу, так и физлицам следует подготовиться к возможной новой волне кибератак.
Автор Николай Деркач
Источник psm7.com