По оценкам Центра финансовых услуг Deloitte, генеративный ИИ в рамках киберпреступности нанесет ущерб в $40 млрд к 2027 году, что значительно превышает показатель в $12,3 млрд в 2023 году. Это соответствует среднегодовому темпу роста на уровне 32%. ять самых распространенных мошеннических схем с использованием искусственного интеллекта, развитие которых мы увидим в следующем году,сообщает psm7.com.

5 мошеннических схем по ИИ, которые будут оставаться актуальными в 2025 году

Фото: chatgpt.com

  • Большинство атак BEC будет связано с искусственным интеллектом и дипфейками.

Использующие дипфейки атаки Business Email Compromise (BEC) станут серьезной угрозой в 2025 году. К примеру, в этом году в Гонконге мошенники использовали видео- и аудиодипфейки, чтобы выдавать себя за руководителей компаний на Zoom-звонках, убеждая сотрудников перевести почти $30 млн.

По данным Medius, около 53% бухгалтеров в США сталкивались с дипфейковыми атаками в 2023 году. Кроме того, VIPRE Security Group сообщает, что 40% BEC-емейлов уже полностью генерируется ИИ.

"С развитием технологий риски растут экспоненциально", - отметил Усман Чоудхари, директор по продуктам и технологиям в Security Magazine.

  • Романтические мошенничества с использованием ШИ-чатбот распространятся

Недавно известный нигерийский киберпреступник опубликовал видео, где ШИ-чатбот общается с жертвой, выдавая себя за «влюбленного» военного врача. Чатботы говорят без акцента, что повышает доверие жертв. Эксперты предупреждают, что такие автономные чаты станут массовым инструментом мошенников в 2025 году.

  • «Свиные ушибы» перейдут на ШИ-схемы

Мошенники активно используют ИИ для масштабирования так называемых «свиных ушибов» (pig butchering – схемы, где жертву долго вводят в заблуждение – «откармливают», чтобы выманить значительные суммы денег). К примеру, программное обеспечение «Instagram Automatic Fans» ежеминутно рассылает тысячи сообщений, таких как: «Мой друг порекомендовал вас. Как дела?». Кроме того, дипфейки, голосовые клоны и чатботы позволят значительно увеличить масштабы таких операций.

  • Атаки с дипфеечным шантажом нацелятся на топ-менеджеров

В Сингапуре мошенники с помощью дипфейковых видео шантажировали 100 чиновников, требуя $50 тыс. в криптовалюте. Видео создавали на основе открытых фото из LinkedIn и YouTube. Ожидается, что такие схемы шантажа распространятся на компании по всему миру.

  • ИИ будет способствовать развитию социальной инженерии и распространению вредоносного ПО

Искусственный интеллект все чаще используется киберпреступниками для усовершенствования методов социальной инженерии и разработки вредоносного программного обеспечения. Благодаря ИИ, фишинговые атаки становятся более убедительными, а вредоносные программы — более сложными для обнаружения. Это повышает эффективность деятельности киберпреступников и усложняет противодействие их методам.

Детальнее о том, чем опасны киберпреступления из-за ransomware и как защититься от программ-требителей, читайте в материале .

Это всего несколько примеров того, как ИИ может и будет использоваться преступниками в 2025 году. Нужно быть готовым, что мошенники могут имитировать голоса близких или коллег, чтобы выманить конфиденциальную информацию или средства (собирают образцы голосов часто боты, звоня жертве под видом соцопроса). Всегда проверяйте подозрительные запросы и будьте внимательны, чтобы не стать жертвой таких обманов.

2025 станет переломным моментом в развитии ШИ-мошенничеств, чему будет способствовать доступность, общее развитие и распространенность преступных схем и инструментов.

Автор Ольга Деркач

Источник psm7.com