Новый метод борьбы с кражей ИИ-моделей. Российские ученые предлагают уникальное решение

Российские ученые из Института искусственного интеллекта AIRI, совместно с коллегами из Сколтеха и ИСП РАН, разработали инновационный метод выявления краж моделей искусственного интеллекта. Этот метод использует систему «водяных знаков», которая помогает доказать, что модель была скомпрометирована и использована без разрешения правообладателя.

Метод, предложенный учеными, основан на создании триггерного набора данных, который внедряется в ИИ-модель и сохраняется при любых ее изменениях. Это позволяет идентифицировать факт кражи даже после модификации модели злоумышленниками. Кража ИИ-моделей подразумевает незаконное использование интеллектуальной собственности, что становится возможным через различные методы, такие как дистилляция модели или дообучение на новом наборе данных.

Наиболее частыми способами кражи являются получение знаний об архитектуре модели или данных, на которых она обучалась, и использование этих знаний для создания собственных коммерческих продуктов. Это возможно, например, с помощью суррогатных датасетов, которые формируются путем комбинирования входных данных с ответами нейронной сети и включаются в обучающие выборки другой модели.

Недавно подобная ситуация произошла с французским стартапом, работающим над моделью Mistral. Это инцидент привлек внимание к необходимости надежных методов защиты интеллектуальной собственности в сфере ИИ.

Объективное доказательство кражи модели представляет значительную трудность из-за множества компонентов, из которых состоят ИИ-модели. Эти компоненты могут быть модифицированы, что затрудняет отслеживание происхождения конкретных алгоритмов или фрагментов кода. Ученые из AIRI предложили метод, который устойчив к таким модификациям, сохраняя уникальные водяные знаки, которые проявляются при проверке модели.

«В первую очередь наш подход полезен закрытым моделям, распространяющимся через API, поскольку их кража с максимальной вероятностью свидетельствует о нарушении конфиденциальности данных внутри компании. Однако мы также поддерживаем применение водяных знаков для выложенных в открытый доступ под Open-source лицензиями моделей»

– Олег Рогов, кандидат физико-математических наук, руководитель научной группы «Доверенные и безопасные интеллектуальные системы» Института AIRI.

Основное преимущество предлагаемого метода заключается в его независимости от конкретной модели и отсутствии необходимости в дополнительном обучении. Это делает метод универсальным и применимым к любой модели без ущерба для ее производительности. Таким образом, новый подход может стать важным инструментом в борьбе с кражей интеллектуальной собственности в области искусственного интеллекта.

Нет комментариев