На фоне стремительного технологического прогресса и изменений в обществе термин «искусственный интеллект» прочно занял место в авангарде глобальных дискуссий. По мере распространения этой технологии люди всё чаще сталкиваются с проблемами конфиденциальности, что делает невозможным рассмотрение ИИ в отрыве от сферы кибербезопасности. Эксперты «Лаборатории Касперского» попытались спрогнозировать последствия стремительного развития искусственного интеллекта , сообщает allinsurance.kz.
Более сложные уязвимости. По мере того как большие языковые модели (LLM), выполняющие инструкции, будут интегрироваться во всё большее количество продуктов и сервисов, на стыке вероятностного генеративного ИИ и традиционных детерминированных технологий будут возникать новые, сложные уязвимости. В результате количество сценариев атак, которые должны предусмотреть ИБ-специалисты, вырастет. Это потребует от экспертов внедрения новых мер безопасности.
Появление полнофункционального ИИ-ассистента для специалистов по кибербезопасности. Генеративный ИИ используется для создания инновационных инструментов кибербезопасности, что в перспективе может привести к созданию помощника, использующего большие языковые модели (LLM) и другие технологии машинного обучения (ML). Этот инструмент может предлагать рекомендации на основе выполненных команд при проведении пентестов.
Мошенники всё чаще будут использовать нейронные сети для создания изображений и видео. В 2024 году злоумышленники могут чаще применять нейросети для создания убедительного контента. Как следствие, попытки мошенничества могут стать более изощрёнными, что приведёт к росту числа атак и их жертв.
В 2024 году генеративный ИИ не внесет существенных изменений в ландшафт угроз. Несмотря на вышеперечисленные тенденции, эксперты «Лаборатории Касперского» по-прежнему скептически относятся к тому, что ИИ в ближайшее время существенно изменит ландшафт угроз. Хотя злоумышленники и используют генеративный ИИ, то же делают и специалисты в области кибербезопасности, которые будут применять те же или даже более продвинутые инструменты для проверки безопасности программного обеспечения и сетей, поэтому в результате ландшафт угроз вряд ли кардинально изменится.
В выработке норм и практик, связанных с ИИ, важную роль будут играть частные компании. Негосударственные организации, в особенности корпорации, будут играть решающую роль в формировании норм и практик, связанных с ИИ. Обладая обширным опытом в разработке и использовании искусственного интеллекта, негосударственные структуры способны внести неоценимый вклад в обсуждение вопросов регулирования ИИ как на международном, так и на национальном уровне. Законодатели по всему миру уже используют эти знания, активно вовлекая бизнес и учёных в процесс разработки стратегий регулирования в сфере ИИ.
Маркировка контента, созданного искусственным интеллектом. Будет появляться всё больше нормативных актов, требующих явно идентифицировать сгенерированный с помощью ИИ контент. Поставщики цифровых сервисов также будут включать это требование в свои политики и продолжат инвестировать в технологии распознавания такого контента. Разработчики и исследователи, со своей стороны, будут участвовать в создании методов маркировки сгенерированного ИИ медиаконтента для облегчения его идентификации и определения источника происхождения.
«Как и любое технологическое достижение, наряду с захватывающими возможностями генеративный ИИ привносит в нашу жизнь и новые риски. Хотя злоумышленники активно осваивают новые технологии, вряд ли это кардинально изменит ландшафт атак в 2024 году. Во многих случаях новые инструменты ещё недостаточно хороши или просты в применении», — комментирует Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского».
Источник allinsurance.kz