Почему вместе с благами, которые несет прогресс, казахстанцы получают и новые риски. Как мошенники обманывают людей с помощью искусственного интеллекта, сообщает zakon.kz.

Искусственный интеллект помог мошенникам украсть 243 тыс. долларов

Нейросети произвели настоящий фурор. С помощью искусственного интеллекта можно создать любую картинку, сочинить песню, написать текст, проанализировать данные. Крупные компании говорят о появившейся возможности экономить большие суммы, ведь всю работу могут сделать нейросети. Однако такой прогресс несет в себе и свою опасность. Специалисты по кибербезопасности бьют тревогу, ведь с помощью нейросети мошенники могут с легкостью писать вредоносные коды, подменять лица на видео и подделывать голоса.

"Устраиваются на работу под чужим именем и воруют данные"

Deepfake - это поддельные видео, изображения и аудио, созданные с помощью искусственного интеллекта. По данным Всемирного экономического форума, количество дипфейковых видео растет на 900% в год. Последние достижения прогресса и вовсе упростили процедуру их создания. Эксперты по кибербезопасности говорят об использовании дипфейков мошенниками для создания фишингов, кражи личных данных, финансового мошенничества. С помощью искусственного интеллекта можно даже во время видеозвонка выдавать себя за другого человека.

"С помощью этой технологии мошенники дистанционно проходят собеседования в различных компаниях, выдавая себя за другого человека. После того, как они устраиваются на работу и получают доступ к корпоративным данным, они их воруют в преступных целях. Либо обманывают клиентов".- Исследователь в области информационной безопасности Райымбек Магазов

Более распространенный вид мошенничества с помощью нейросетей - поддельные фото, видео, аудио. Буквально недавно в СМИ была информация об использовании злоумышленниками видео с изображением известного вайнера Токтарбека Сергазы. На нем якобы блогер пытался привлечь казахстанцев в мошеннические схемы.

"Мошенники используют все доступные блага нейросетей в своих корыстных целях. Берут фотографии очень популярных людей и с помощью озвучки вовлекают людей в мошеннические схемы. Полгода назад вышла нейронная сеть, которая подделывает голоса. Мошенники тут же начали ею пользоваться. Достаточно просто загрузить небольшое ваше голосовое сообщение, и нейронная сеть быстро запоминает и копирует ваш голос. Чем это может грозить? Допустим, у вас есть своя активная страница в социальных сетях, мошенники могут взять отрезок видео с вашим голосом, скопировать его и отправлять от вашего имени голосовые сообщения вашим подписчикам, друзьям, родственникам просьбой отправить срочно помочь с деньгами. Сегодня это действительно серьезная проблема".-Райымбек Магазов

ChatGPT, который считают "убийцей" "гугла" благодаря его умопомрачительным способностям, тоже стал инструментом в руках мошенников. Есть очень много вариантов использования нейросети. Особенно на стадии ее открытия - каждый мог написать с помощью нее вредоносный код. Достаточно было запросить: "Напиши мне код страницы, который будет отправлять введенные данные пользователя на мою почту или сервер" - и вы получали готовую фишинговую страницу.

"Если же сейчас создавать такой запрос, то ChatGPT откажет, ссылаясь, что вы нарушаете политику безопасности или другие юридические аспекты. Но не стоит забывать, что это нейронная сеть, она словно невероятно умный и одновременно послушный ребенок. [...] Есть много вариаций, где-то она отказывает, а есть те, где она пишет вредоносный код. Я задал вопрос самой ChatGPT о том, как его могут использовать хакеры и мошенники, на что она ответила: фишинг, социальная инженерия, вредоносный код, и для большого количества спама".-Райымбек Магазов

Цифры от МВД

МВД РК только за январь 2023 года зарегистрировало 1,6 тыс. фактов интернет-мошенничества.

"При этом в последнее время участились случаи мошенничеств в социальных сетях, где под видом рекламной акции осуществляются мошеннические действия по привлечению населения к инвестированию. С начала года таким способом совершено 142 интернет-мошенничеств. В некоторых случаях при рекламных акциях мошенниками используются фото-, видеозаписи известных лиц в том числе общественных и медийных деятелей (артисты, блогеры и т.д.)".-МВД РК

Однако, к сожалению, ведомство не ведет статистики именно по мошенничествам с использованием технологии deepfake, потому что она "не входит в перечень квалифицирующих признаков мошенничества".

"В целях раскрытия указанных видов преступлений по каждому совершенному мошенничеству проводится комплекс оперативно-розыскных мероприятий. При этом необходимо наличие специальных познаний в области информационных технологий и использование специальных программных продуктов для сбора доказательств".-МВД РК

При этом какими ответными цифровыми технологиями собираются бороться с надвигающейся на казахстанцев угрозой, в МВД в ответ на официальный запрос редакции так и не объяснили. Отметили лишь, что работают над повышением правовой и финансовой грамотности населения.

"С начала года в информационном пространстве опубликовано свыше 2 тыс. материалов профилактического характера о схемах совершения интернет- мошенничеств и мерах предосторожности. В целях выявления и своевременного реагирования на различные материалы противоправного содержания, в том числе установления ресурсов, связанных с интернет-мошенничествами, силами подразделений по борьбе с киберпреступностью на постоянной основе проводится мониторинг сети Интернет".-МВД РК

Так, в 2022 году выявлено 16 451 интернет-ресурс противоправного характера, в том числе 176 связаны с пропагандой инвестиций в различных мошеннических схемах. С начала года выявлено 53 таких ресурса, которые направлены в уполномоченный орган для блокирования доступа.

Усилить защиту

По мнению эксперта, эта проблема еще не коснулась Казахстана в полной мере, однако это лишь вопрос времени. Уже через год она может стать повсеместной в нашей стране, как и мошенники, звонящие якобы из банков. И защититься от этого можно будет лишь старым добрым проверенным способом - не быть излишне доверчивым, соблюдать цифровую гигиену и не спешить.

"Если говорить конкретно про подделывание голоса. Защититься от этого очень сложно. Нужно быть внимательным. Раньше такое тоже было, только мошенники использовали живых людей, похожих по голосу. Даже у меня такое было, когда я учился в школе - родителям позвонил якобы от моего имени человек с похожим голосом. И они чуть не заплатили за это деньги. Если вы столкнулись с такой ситуацией, нужно позвонить человеку на его реальный номер. Самое главное - не спешить, спокойно все обдумать, позвонить своим знакомым и попросить совета. Я думаю, полностью ответственность будет лежать на самом человеке. Как бы государство не старалось защитить, мошенники - это люди, которые приспосабливаются ко всему, и они находят способы обойти защиту".-Райымбек Магазов

Появление новых технологий, как отметил Райымбек Магазов, будет порождать все больше новых способов обмана людей, снижать порог вхождения в сферу мошенничества. Однако все же от нейросетей больше пользы, чем вреда, считает он. Главное - осознать масштабы рисков и готовиться к усилению защиты в будущем.

Автор Жадра Жулмухаметова

Источник zakon.kz