Обработка информации модели искусственного интеллекта представляет опасность для пользователя из-за возможности взлома системы или передачи ее другим через программы, работающие на основе LLM,сообщает unian.net.
Фото:depositphotos.com
За последний год развитие искусственного интеллекта значительно ускорилось, вызвав резонанс как среди специалистов по кибербезопасности, так и среди обычных пользователей Интернета. В то время как специалисты применяют искусственный интеллект (ИИ) для повышения кибербезопасности, злоумышленники используют технологию в своих целях. В этом году ожидается рост мошенничества, схем социальной инженерии, афер с учетными записями, дезинформационных кампаний и других угроз.
В связи с ростом интереса к использованию искусственного интеллекта специалисты ESET подготовили перечень основных схем, которые могут использовать злоумышленники, а также рассказали о возможных угрозах конфиденциальности и преимуществах использования ИИ.
Как злоумышленники используют технологии ИИ
Искусственный интеллект уже используется разными типами угроз, а количество кибератак с его применением растет с каждым годом. Наиболее опасной является угроза в контексте социальной инженерии, где генеративный ИИ может помочь злоумышленникам создавать достаточно убедительный текст на локальных языках. Среди других наиболее распространенных схем с использованием искусственного интеллекта злоумышленниками:
Обход аутентификации: дипфейк-технология помогает мошенникам выдавать себя за пользователей во время проверок на основе селфи и видео для создания новых аккаунтов и получения доступа к ним.
Взлом корпоративной электронной почты: искусственный интеллект позволяет обманом заставить жертву перевести средства на аккаунт под контролем мошенника. Также могут использоваться аудио и видео дипфейки для маскирования под генеральных директоров и других руководителей во время телефонных звонков и онлайн-встреч.
Мошенничество с выдачей себя за другого: программы, созданные на базе больших языковых моделей (LLM), откроют новые возможности для мошенников. Благодаря данным, полученным из взломанных или общедоступных аккаунтов в соцсетях, мошенники могут выдать себя за жертву виртуальной кражи и других афер, предназначенных для обмана друзей и близких.
Аферы с влиятельными лицами: в 2025 году ожидается использование мошенниками технологии ИИ для создания поддельных или дублирующих аккаунтов знаменитостей, влиятельных лиц и других известных людей в соцсетях. В частности, злоумышленники могут опубликовать дипфейк-видео, чтобы заманить подписчиков поделиться личной информацией и деньгами.
Дезинформация: киберпреступники будут использовать искусственный интеллект для создания поддельного контента, таким образом заманивая доверчивых пользователей соцсетей следить за фальшивыми аккаунтами. В дальнейшем эти пользователи могут стать инструментом других операций злоумышленников.
Взлом паролей: инструменты на основе искусственного интеллекта способны в считанные секунды получать информацию об учетных данных для доступа к корпоративным сетям и данным, а также аккаунтам пользователей.
Какие угрозы для конфиденциальности
Помимо использования искусственного интеллекта в качестве инструмента в атаках киберпреступников, он также может увеличить риски утечек данных. Программы на базе больших языковых моделей требуют огромного объема текста, изображений и видео для их обучения. Часто случайно некоторые из данных будут конфиденциальными: биометрия, медицинская или финансовая информация. Некоторые соцсети и другие компании могут изменить условия предоставления услуг, чтобы использовать данные пользователей для обучения моделей.
Обработка информации модели искусственного интеллекта представляет опасность для пользователя из-за возможности взлома системы или передачи ее другим через программы, работающие на основе LLM. В частности, корпоративные пользователи могут непреднамеренно делиться конфиденциальной информацией, связанной с работой, через подсказки искусственного интеллекта. Согласно опросу, пятая часть британских компаний случайно раскрыла потенциально конфиденциальные данные из-за использования технологий ИИ сотрудниками.
В чем преимущества искусственного интеллекта
Искусственный интеллект будет играть все большую роль в работе команд по кибербезопасности в течение этого года, поскольку он будет встроен в новые продукты и услуги. В частности, это поможет:
- генерировать данные для обучения пользователей, групп безопасности и даже инструментов по безопасности на основе ИИ;
- обобщать длинные и сложные отчеты об угрозах для аналитиков и содействовать более быстрому принятию решений по инцидентам;
- повысить производительность специалистов по безопасности путем автоматизации рабочих процессов для расследования и исправления;
- сканировать большие объемы данных на признаки подозрительного поведения;
- повышать квалификации ИТ-команд с помощью функции "второго пилота", встроенной в различные продукты, чтобы снизить вероятность неправильных настроек.
Однако специалисты в области ИТ должны понимать ограничение искусственного интеллекта и важность опыта человека в процессе принятия решений. В 2025 году важным будет баланс между человеческими ресурсами и машинной работой, чтобы снизить риски ошибок, а также потенциально негативные последствия. Технологии ИИ необходимо совмещать с другими инструментами и техниками для получения оптимальных результатов.
В 2025 году искусственный интеллект радикально изменит способ взаимодействия с технологиями. Использование инструментов на основе ИИ имеет огромные потенциальные выгоды для предприятий и отдельных пользователей, но также создает новые риски, которыми необходимо управлять. Поэтому государство, предприятия и пользователи должны сотрудничать, чтобы использовать потенциал искусственного интеллекта, одновременно уменьшая риски.
Автор Григорий Бондарь
Источник unian.net