Киберпреступники усиливают свои атаки с помощью больших языковых моделей, таких как ChatGPT, и эксперты по безопасности предупреждают, что они лишь коснулись поверхности потенциала ускорения угроз с помощью искусственного интеллекта , сообщает allinsurance.kz .

iskusstvennyy intellekt

«Если вы плохой парень и не используете ChatGPT или другие LLM для поиска уязвимостей, вы, вероятно, не выполняете свою работу как плохой парень», — считает Скотт Джордано, главный юрисконсульт Spirion.

На конференции RSA в прошлом месяце эксперт по кибербезопасности Микко Хиппёнен забил тревогу, что инструменты искусственного интеллекта, которые долгое время использовались для укрепления корпоративной защиты, теперь способны нанести реальный вред. «Сейчас мы начинаем наблюдать атаки с использованием больших языковых моделей», — сказал он.

В интервью Information Security Media Group Хиппёнен рассказал об электронном письме, которое он получил от автора вредоносных программ, в котором тот хвастался, что создал «совершенно новый вирус» с использованием GPT OpenAI, который может создавать компьютерный код из инструкций, написанных на английском языке. «Это первая вредоносная программа, которую мы когда-либо видели, которая использует ChatGPT для перезаписи своего кода», — сказал Хиппёнен. «Он вызывает GPT, чтобы написать для него код, а это значит, что каждый раз он будет другим, и его будет очень просто изменить, чтобы написать его на любом другом языке».

Хотя ChatGPT может заносить злонамеренных пользователей в черный список, Хиппёнен сказал, что в конечном итоге разработчики смогут создавать вредоносное ПО со своими собственными встроенными LLM.

Хотя LLM менее сложны, чем вредоносные программы, созданные людьми, они расширили круг потенциальных киберпреступников, позволив даже новичкам разрабатывать вредоносный код, говорят некоторые эксперты.

Сергей Шикевич, ведущий исследователь ChatGPT в компании Check Point, занимающейся кибербезопасностью, сказал, что видел, как хакеры хвастаются на форумах даркнета созданием вредоносных программ и программ-вымогателей с помощью ChatGPT.

«Важно то, что ChatGPT позволяет всем, даже тем, у кого нет опыта программирования, развить этот навык. Может быть, через шесть месяцев или около того он сможет также создавать совершенно сложные вредоносные программы, которых мы никогда раньше не видели», — сказал эксперт.

«Теперь такие технологии в основном позволяют людям, которые не являются разработчиками программного обеспечения, создавать вредоносное ПО. Это увеличивает угрозу, потому что в конце концов будет больше преступников, занимающихся вредоносным ПО, и больше преступников, пытающихся атаковать корпорации».

LLM также могут упростить фишинговые атаки, составляя убедительные электронные письма, выдавая себя за доверенные учреждения, такие как банк или налоговую службу.

«Возьмите, к примеру, российских киберпреступников, потому что большинство из них не говорят по-английски или их уровень английского крайне низок. До сих пор они использовали так называемых внешних поставщиков. Они пошли к выпускникам факультета английской литературы российских вузов, которые писали им фишинговые письма на английском языке», — сказал Шикевич.

«Теперь ChatGPT позволяет им сделать свою работу намного более рентабельной. Они просто пишут в ChatGPT или других подобных инструментах: «Пожалуйста, напишите электронное письмо, похожее на то, что оно пришло из Chase Bank или любого другого банка» и просят получателя предоставить информацию о своем банковском счете или номер социального страхования. Затем чат-бот может сгенерировать электронное письмо на идеальном английском языке», — сказал он.

Скотт Джордано, главный юрисконсульт компании по защите от потери данных Spirion, сказал, что самая сильная сторона ИИ — это его способность быстро изучать горы кода, чтобы находить и использовать слабые места в сети компании, прежде чем защитник сможет их исправить.

«Это самая острая точка, которая сейчас есть у ИИ. Если вы плохой парень и не используете ChatGPT или другие LLM для поиска уязвимостей, вы, вероятно, не выполняете свою работу как плохой парень», — сказал Джордано. «И обратное верно для хороших парней. Это гонка вооружений, и обе стороны должны понять, как использовать эту технологию в своих интересах», — сказал он.

По словам Джордано, плохие парни в настоящее время имеют преимущество. «Они должны быть правы только один раз. Им достаточно обмануть вас один раз, чтобы начать использовать вашу сеть», — сказал он.

Но компании могут бороться с этим, добавляя ИИ в свой каталог корпоративных рисков, переходя на архитектуру с нулевым доверием и обучая своих сотрудников определять фишинговые мошенничества или что-либо еще, что выглядит подозрительно, сказал Джордано.

«Лучшая мера кибербезопасности, когда-либо придуманная, — это бдительный сотрудник», — сказал он.

Автор Мария Динзео

Источник allinsurance.kz