Обработка информации модели искусственного интеллекта представляет опасность для пользователя из-за возможности взлома системы или передачи ее другим через программы, работающие на основе LLM,сообщает unian.net.

Трехмерный Роботизированный Рендеринг Касательно 2025 Года Схеме Запустит Технологию Искусственного — стоковое фото

Фото:depositphotos.com

За последний год развитие искусственного интеллекта значительно ускорилось, вызвав резонанс как среди специалистов по кибербезопасности, так и среди обычных пользователей Интернета. В то время как специалисты применяют искусственный интеллект (ИИ) для повышения кибербезопасности, злоумышленники используют технологию в своих целях. В этом году ожидается рост мошенничества, схем социальной инженерии, афер с учетными записями, дезинформационных кампаний и других угроз.

В связи с ростом интереса к использованию искусственного интеллекта специалисты ESET подготовили перечень основных схем, которые могут использовать злоумышленники, а также рассказали о возможных угрозах конфиденциальности и преимуществах использования ИИ.

Как злоумышленники используют технологии ИИ

Искусственный интеллект уже используется разными типами угроз, а количество кибератак с его применением растет с каждым годом. Наиболее опасной является угроза в контексте социальной инженерии, где генеративный ИИ может помочь злоумышленникам создавать достаточно убедительный текст на локальных языках. Среди других наиболее распространенных схем с использованием искусственного интеллекта злоумышленниками:

Обход аутентификации: дипфейк-технология помогает мошенникам выдавать себя за пользователей во время проверок на основе селфи и видео для создания новых аккаунтов и получения доступа к ним.

Взлом корпоративной электронной почты: искусственный интеллект позволяет обманом заставить жертву перевести средства на аккаунт под контролем мошенника. Также могут использоваться аудио и видео дипфейки для маскирования под генеральных директоров и других руководителей во время телефонных звонков и онлайн-встреч.

Мошенничество с выдачей себя за другого: программы, созданные на базе больших языковых моделей (LLM), откроют новые возможности для мошенников. Благодаря данным, полученным из взломанных или общедоступных аккаунтов в соцсетях, мошенники могут выдать себя за жертву виртуальной кражи и других афер, предназначенных для обмана друзей и близких.

Аферы с влиятельными лицами: в 2025 году ожидается использование мошенниками технологии ИИ для создания поддельных или дублирующих аккаунтов знаменитостей, влиятельных лиц и других известных людей в соцсетях. В частности, злоумышленники могут опубликовать дипфейк-видео, чтобы заманить подписчиков поделиться личной информацией и деньгами.

Дезинформация: киберпреступники будут использовать искусственный интеллект для создания поддельного контента, таким образом заманивая доверчивых пользователей соцсетей следить за фальшивыми аккаунтами. В дальнейшем эти пользователи могут стать инструментом других операций злоумышленников.

Взлом паролей: инструменты на основе искусственного интеллекта способны в считанные секунды получать информацию об учетных данных для доступа к корпоративным сетям и данным, а также аккаунтам пользователей.

Какие угрозы для конфиденциальности

Помимо использования искусственного интеллекта в качестве инструмента в атаках киберпреступников, он также может увеличить риски утечек данных. Программы на базе больших языковых моделей требуют огромного объема текста, изображений и видео для их обучения. Часто случайно некоторые из данных будут конфиденциальными: биометрия, медицинская или финансовая информация. Некоторые соцсети и другие компании могут изменить условия предоставления услуг, чтобы использовать данные пользователей для обучения моделей.

Обработка информации модели искусственного интеллекта представляет опасность для пользователя из-за возможности взлома системы или передачи ее другим через программы, работающие на основе LLM. В частности, корпоративные пользователи могут непреднамеренно делиться конфиденциальной информацией, связанной с работой, через подсказки искусственного интеллекта. Согласно опросу, пятая часть британских компаний случайно раскрыла потенциально конфиденциальные данные из-за использования технологий ИИ сотрудниками.

В чем преимущества искусственного интеллекта

Искусственный интеллект будет играть все большую роль в работе команд по кибербезопасности в течение этого года, поскольку он будет встроен в новые продукты и услуги. В частности, это поможет:

  • генерировать данные для обучения пользователей, групп безопасности и даже инструментов по безопасности на основе ИИ;
  • обобщать длинные и сложные отчеты об угрозах для аналитиков и содействовать более быстрому принятию решений по инцидентам;
  • повысить производительность специалистов по безопасности путем автоматизации рабочих процессов для расследования и исправления;
  • сканировать большие объемы данных на признаки подозрительного поведения;
  • повышать квалификации ИТ-команд с помощью функции "второго пилота", встроенной в различные продукты, чтобы снизить вероятность неправильных настроек.

Однако специалисты в области ИТ должны понимать ограничение искусственного интеллекта и важность опыта человека в процессе принятия решений. В 2025 году важным будет баланс между человеческими ресурсами и машинной работой, чтобы снизить риски ошибок, а также потенциально негативные последствия. Технологии ИИ необходимо совмещать с другими инструментами и техниками для получения оптимальных результатов.

В 2025 году искусственный интеллект радикально изменит способ взаимодействия с технологиями. Использование инструментов на основе ИИ имеет огромные потенциальные выгоды для предприятий и отдельных пользователей, но также создает новые риски, которыми необходимо управлять. Поэтому государство, предприятия и пользователи должны сотрудничать, чтобы использовать потенциал искусственного интеллекта, одновременно уменьшая риски.

Автор Григорий Бондарь

Источник unian.net