Теперь авторы смогут отслеживать использование своих работ в обучении ИИ, сообщает securitylab.ru.
Фото: freepik.com
Создатели контента часто жалуются, что их работы используются для обучения моделей искусственного интеллекта (ИИ) без согласия. Ранее доказать это было сложно, но теперь у них появился новый инструмент: «ловушки авторского права», разработанные в Имперском колледже Лондона. Ловушки позволяют авторам и издателям скрытно маркировать свои работы для выявления их использования в ИИ.
Такие методы напоминают традиционные стратегии защиты авторских прав, например, добавление фальшивых мест на карты или вымышленных слов в словари. Вопрос защиты интеллектуальной собственности стал особенно актуален на фоне судебных разбирательств между издателями и технологическими компаниями. Например, The New York Times судится с OpenAI.
Код для создания и обнаружения ловушек уже доступен на GitHub. Команда планирует разработать инструмент для генерации и внедрения ловушек, чтобы пользователи могли использовать их самостоятельно.
Исследование представлено на Международной конференции по машинному обучению в Вене. По словам Ив-Александра де Монтжуа, доцента Имперского колледжа Лондона, отсутствие прозрачности в использовании контента для обучения моделей мешает найти баланс между компаниями ИИ и создателями контента.
Для создания ловушек используется генератор слов, который создает тысячи бессмысленных предложений, например: «Когда наступают времена смуты... что важно в распродаже и когда, этот список сообщает, кто откроется в четверг ночью с их обычными временем распродаж и другими временем открытия от ваших соседей. Вы все еще».
Затем одно случайно выбранное предложение-ловушка многократно внедряется в текст различными способами: как белый текст на белом фоне или в исходном коде статьи. Для эффективности ловушка должна повторяться от 100 до 1000 раз.
Для обнаружения ловушек исследователи использовали крупную языковую модель. Если модель ранее встречала предложение-ловушку в своих обучающих данных, она показывала низкий уровень «удивления» (также известный как «перплексия»). Напротив, высокий уровень удивления указывал на то, что модель столкнулась с предложением впервые.
Команда продемонстрировала эффективность метода на примере CroissantLLM - новой двуязычной франко-английской языковой модели с 1,3 миллиардами параметров. Исследование подтвердило эффективность «ловушек» даже для небольших языковых моделей. Эти ловушки позволяют с высокой точностью определить, использовался ли конкретный текст для обучения модели ИИ.
Однако эксперты отмечают, что текущая реализация метода имеет ряд недостатков. Повторение 75-словной фразы 1000 раз в документе существенно меняет оригинальный текст, что может позволить разработчикам ИИ обнаружить ловушку и пропустить содержащий ее контент или удалить ее и обучаться на остальном тексте. Кроме того, это затрудняет чтение оригинального текста.
Де Монжуа признает, что ловушки не являются безупречными. Мотивированный злоумышленник, знающий о ловушке, может удалить ее. Он сравнивает это с игрой в кошки-мышки, отмечая, что возможность удаления всех ловушек остается открытым вопросом. Тем не менее, чем больше ловушек применяется, тем сложнее становится удалить их все без значительных инженерных ресурсов.
Эксперты подчеркивают, что «ловушки для авторских прав» могут быть лишь временным решением или незначительным препятствием для разработчиков моделей ИИ. Однако это важный шаг в поиске баланса между развитием технологий искусственного интеллекта и защитой прав создателей контента
Источник securitylab.ru