Крупные IT-компании объявили о создании отраслевой организации «Коалиция за безопасный искусственный интеллект» (Coalition for Secure AI, CoSAI). В число участников и спонсоров-основателей коалиции вошли Microsoft, Google, Nvidia, Intel, IBM, PayPal, Amazon, Atrophic, Cisco, Chainguard, Cohere, GenLab, OpenAI и Wiz, сообщает habr.com.
Фото: freepik.com
Инициатива направлена на предоставление руководства путём обеспечения методологии с открытым исходным кодом, стандартизированных фреймворков и инструментов, позволяющих разработчикам создавать безопасные ИИ-системы.
В рамках CoSAI особое внимание уделят безопасной разработке, интеграции, развёртыванию и эксплуатации систем ИИ, снижая риски в виде кражи моделей, компрометации данных, кибератак и других несанкционированных действий злоумышленников.
Коалиция создаст совет управляющих проекта для продвижения и управления своей общей технической повесткой дня, а также технический руководящий комитет, включающий экспертов в области ИИ из академических кругов и промышленности, для надзора за различными направлениями работы.
Свои первоначальные задачи CoSAI определяет так:
- Безопасность цепочек поставок программного обеспечения для ИИ-систем: улучшение мониторинга состава и происхождения для защиты ИИ-приложений;
- Подготовка специалистов защиты для меняющегося ландшафта кибербезопасности: решение проблем инвестиций и интеграции в ИИ и классические системы;
- Управление безопасностью ИИ: разработка передовых практик и структур оценки рисков для безопасности ИИ.
Сопредседатель совета управляющих CoSAI от Google Дэвид ЛаБьянка заявил, что создание коалиции обусловлено необходимостью демократизации знаний и достижений, необходимых для безопасной интеграции и развёртывания ИИ.
Инициатива CoSAI по созданию подхода с открытым исходным кодом к безопасности ИИ — это важный шаг на пути к укреплению доверия и содействию ответственному развитию в этой быстро развивающейся отрасли ИИ, пишет Neowin. Портал добавляет, что CoSAI стремится предоставить разработчикам и организациям возможность создавать изначально безопасные ИИ-системы.
Источник habr.com