Мошенники, занимающиеся дипфейками, все чаще нападают на ничего не подозревающих жертв, вызывая тревогу среди всех игроков платежной индустрии. Как защитить свою организацию и клиентов от реалистичных онлайн-масок и голосов, созданных компьютерными технологиями , сообщает payspacemagazine.com.

Мошенничество, Хакер, Безопасность

Иллюстративное фото: pixabay.com.

Быстрое развитие технологий приносит многочисленные преимущества. Генерирующий искусственный интеллект (ИИ) сам по себе обладает огромным неиспользованным потенциалом для повышения эффективности финансовых услуг , управления недвижимостью , здравоохранения , розничной торговли , электронной коммерции и других отраслей.

В то же время за повышение автоматизации, ускорение обработки данных и расширенную аналитику приходится платить. Наряду с неоспоримыми преимуществами, технология генеративного искусственного интеллекта создает риски для безопасности и проверки подлинности. Одной из главных проблем финансовой индустрии сегодня являются дипфейковые мошенничества, которые порождают новую волну мошенничества с использованием передовых технологий манипулирования видео.

Что такое дипфейк?

Видеотехнология Deepfake использует инструменты искусственного интеллекта для создания синтетических изображений существующего человека, убедительно повторяя его образ, голос и жесты. Подобные манипуляции можно легально использовать для создания развлекательного медиаконтента. Однако они также все чаще используются для распространения дезинформации и втягивания людей в финансовые аферы.

Примеры многочисленны. Когда в прошлом году началась полномасштабная война на Украине, российские преступники создали ряд фейковых видеороликов с участием украинского президента и высокопоставленных чиновников, чтобы инсценировать свою капитуляцию и посеять панику. В последние месяцы в социальных сетях появился поток дипфейковых видеороликов, выдающих себя за известного YouTube-блогера MrBeast, звезд BBC Мэтью Амроливалу и Салли Бандок, Илона Маска, ведущих актеров и актрис Болливуда и других общественных деятелей. В то время как некоторые видео были созданы просто для развлечения, другие фейковые самозванцы пропагандировали инвестиционные мошенничества и фальшивые розыгрыши подарков.

Вместо чистых изображений, генерируемых компьютером (CGI), дипфейки используют набор инструментов искусственного интеллекта (ИИ), таких как глубокие нейронные сети, алгоритмы кодирования, генеративно-состязательные сети (GAN) и т. д. Все эти инструменты позволяют мошенникам навязывать целевое изображение и звук на базовом видео.

Типы дипфейкового мошенничества

Дипфейки привнесли дополнительную изощренность в схемы киберпреступлений. Вот несколько распространенных способов, которыми преступники используют технологию дипфейков, чтобы обмануть жертв и выманить у них кровно заработанные деньги.

Мошенничество с помощью социальной инженерии

Мошенничества этого типа обычно включают звонок или сообщение от преступника, который выдает себя за человека, которого вы знаете, и утверждает, что ему срочно нужны деньги. Нередко преступники говорят, что ваш близкий человек попал в беду, и призывают жертв прислать ему средства на помощь.

Благодаря технологии дипфейков преступники теперь могут фактически копировать голос человека или все изображение. Они могут даже инициировать видеозвонок, чтобы сделать разговор более правдоподобным. Это легче сделать, если рассматриваемый человек является создателем или влиятельным лицом в социальных сетях. Затем мошенник может загрузить короткий образец голоса из чьего-либо контента в социальных сетях и использовать инструменты синтеза голоса искусственного интеллекта, чтобы манипулировать друзьями, семьей или подписчиками этого человека.

Банковское мошенничество с выдачей себя за другое лицо

Мошенничество с выдачей себя за банковское лицо происходит, когда преступник связывается с клиентом банка, заявляя, что он из службы поддержки клиентов или отдела безопасности, и обманом заставляет жертву перевести деньги на мошеннический счет под ложным предлогом. Мошенники также могут запросить конфиденциальные банковские данные, такие как CVV/CVC, пароль, данные учетной записи и т. д. Используя дипфейк, преступник может выдать себя за сотрудника банка из местного отделения, которого вы знаете лично, чтобы завоевать больше доверия. .

В то же время недавние отчеты показывают, что сегодня преступники также часто используют дипфейки, чтобы выдать себя за клиентов банка и потребовать от сотрудников банка перевести средства на мошеннические счета. Сегодня многие банки используют голосовую биометрическую технологию для авторизации своих клиентов. Таким образом, дипфейки представляют собой серьезную проблему на этом этапе процесса проверки.

Инвестиционные схемы

Типичные схемы Понци, схемы «накачки и сброса» или финансовые пирамиды подразумевают инвестиционную возможность, которая звучит слишком хорошо, чтобы быть правдой. Преступники делают различные вводящие в заблуждение положительные заявления, чтобы позже обналичить прибыль и оставить тысячи людей с пустыми руками.

Многие из современных инвестиционных схем используют криптовалюты . Новизна этого метода инвестирования пригодится мошенникам, поскольку рынок очень волатилен, и многие клиенты не имеют должного представления о том, как работает криптотрейдинг или стейкинг .

Подобные схемы часто пропагандируются через социальные сети, ложные пресс-релизы и другие публичные объявления. С помощью дипфейков проще создать впечатление, что новый проект поддерживает знаменитость или человек, известный в финансовых кругах. Убедительные видео-имитации могут заставить сотни людей вложить деньги в эту схему.

Влияние Deepfake Scam на Fintech

Очевидно, что появление новых методов обмана представляет угрозу для всех игроков платежной индустрии. Спектр негативных последствий, которые вызывают дипфейки, широк.

Финансовые потери

Еще в 2019 году, когда технология искусственного интеллекта не была такой продвинутой и доступной, как сегодня, мошенники клонировали голос генерального директора, чтобы обмануть британскую энергетическую компанию на 243 000 долларов. Сегодня преступники могут использовать программы дипфейков в режиме реального времени, чтобы имитировать общественных деятелей и руководителей компаний во время видеозвонков. Это потенциально может привести к мошенническим транзакциям.

Целостность бренда и рыночная стоимость

Еще один вариант использования дипфейковых мошенников — выдавать себя за руководителей всех типов учреждений, включая финтех-стартапы, в социальных сетях с целью распространения дезинформации о компании. Даже если такая вредоносная кампания будет быстро развенчана, распространение фейковой информации может на какое-то время повлиять на акции компаний. Это дает преступникам возможность получить прибыль от коротких продаж, в то время как компания понесет некоторые убытки.

Испорченная репутация

Наконец, когда дипфейковые мошенники массово атакуют клиентов финансового учреждения, кому-то, возможно, придется возмещать убытки. Во многих случаях поставщик финансовых технологий также может столкнуться с юридическими штрафами, если будет доказано, что он не смог внедрить адекватные меры кибербезопасности для защиты своих клиентов.

Чтобы проиллюстрировать угрозу, можно рассмотреть пример мошенничества с санкционированными платежами , распространяющегося на P2P-приложения, такие как Zelle. Хотя технически компания не виновата, крупнейшие банки Америки были вынуждены разработать план компенсации для клиентов, ставших жертвами подобных афер, поскольку масштабы потерь клиентов выросли аномально.

Необходимо улучшить кибербезопасность

По мере того, как киберпреступники развивают свои схемы, команды кибербезопасности игроков в сфере финансовых технологий должны проявлять инициативу для решения этих проблем. Компании должны принять во внимание растущую угрозу дипфейкового мошенничества и разработать эффективные политики и процедуры кибербезопасности для предотвращения потенциального вреда.

Нормативная неопределенность

Полагаться на нормативные меры по ограничению использования дипфейков не получится. Вопрос сложный, поскольку законы в каждой стране разные. Таким образом, правовые границы в странах происхождения компании, медиа-платформы, программного обеспечения искусственного интеллекта или обманутого потребителя, вовлеченного в мошенничество с дипфейками, могут противоречить друг другу. Более того, дипфейки никогда не могут быть запрещены полностью, поскольку технология используется и в творческих целях.

Что вы можете сделать, чтобы избежать мошенничества с дипфейками?

В мире постоянно развивающихся технологий дипфейки обязательно станут частью нашей реальности. Следовательно, как клиентам, так и организациям необходимо признать угрозу и иметь возможность принять контрмеры.

Осведомленность — ваш первый уровень защиты

Человек, который знает о существующих мошенничествах с дипфейками, может быть лучше подготовлен к их обнаружению. Дипфейки не идеальны на 100% (по крайней мере, на данный момент), поэтому тренированный глаз легко различит некоторые нарушения даже в хорошо сделанном видео-имитации.

Например, в недавней инвестиционной схеме с дипфейками Илона Маска и ведущих BBC журналисты смогли обнаружить как словесные, так и визуальные ошибки, допущенные преступниками. Первое правило: если что-то выглядит слишком хорошо, чтобы быть правдой, прежде чем действовать, обратите внимание на тревожные сигналы.

В корпоративном мире обмануть живых сотрудников гораздо проще, чем, например, виртуального чат-бота. Следовательно, все представители службы поддержки клиентов, а также другие специалисты должны пройти специальную подготовку, посвященную выявлению подозрительной деятельности и сообщению о ней. Узнайте больше о том, как подготовить более опытных сотрудников в области кибербезопасности .

ИИ против ИИ: позвольте технологиям поддержать ваши усилия

В эпоху изощренных подделок нельзя полагаться только на человеческий интеллект в борьбе с кибермошенничеством. Что может лучше обнаружить контент, созданный компьютером, чем сам ИИ?

Несколько поставщиков коммерческого программного обеспечения уже разработали решения искусственного интеллекта, обученные на миллионах реальных и фейковых видео, утверждая, что они могут определять дипфейки и другие манипуляции ИИ с высокой точностью 96–99%. Для сравнения: недавнее исследование показало, что люди могут обнаружить фальшивую речь только в 73% случаев.

Сотрудничайте с социальными сетями и регулирующими органами по предотвращению дипфейков

Платформы социальных сетей являются одним из самых мощных инструментов для быстрого распространения дезинформации, которая может нанести ущерб рыночному положению и финансовому положению компании. Пометка и сообщение о фейковых аккаунтах и ​​контенте в СМИ является важной профилактической мерой против дипфейковых мошенников.

Поэтому игроки финтех-индустрии и другие бренды должны внимательно следить за упоминаниями своих фирм в социальных сетях, чтобы выявлять незаконную деятельность и как можно скорее связываться с представителями СМИ. При обнаружении мошенничества также важно предупредить своих клиентов о потенциальной опасности, прежде чем они станут жертвами тщательно продуманных преступников.

На нормативном уровне власти и игроки отрасли должны объединиться для разработки эффективных законов, предотвращающих деятельность дипфейковых мошенников.

Вывод: платежная индустрия должна быть бдительна и активна, когда дело доходит до дипфейков

Дипфейки — это очень убедительные синтетические копии образа и голоса реального человека. Они созданы с использованием передовых технологий искусственного интеллекта. В руках преступников дипфейки могут быть использованы для повышения эффективности мошенничества в области социальной инженерии, инвестиционных схем и мошенничества с выдачей себя за банковское лицо.

Законодательство в отношении дипфейков неоднородно в разных странах и отраслях. Таким образом, предотвращение негативного влияния дипфейков на вашу репутацию, финансовую прибыль и положение на рынке является вопросом более сильной кибербезопасности.

Повышение осведомленности об этой проблеме является важным первым шагом на пути к предотвращению дипфейков. Использование инструментов обнаружения искусственного интеллекта сделает ваши усилия намного более эффективными. Наконец, финтех-игроки не могут действовать в этой борьбе в одиночку. Тесное сотрудничество с социальными сетями и регулирующими органами поможет бороться с дипфейковым мошенничеством в глобальном масштабе.

Источник payspacemagazine.com