Вопрос доверия

    Вопрос доверия

    Чем угрожает использование нейротехнологий.

    Сегодня искусственный интеллект у всех на виду: в каждом компьютере, смартфоне, офисе и на производстве. Понятно, что и эффективная научная деятельность невозможна без его применения. Проблемы внедрения ИИ в исследовательскую деятельность, индустрию и госуправление обсудили на заседании Президиума РАН.

    Разговор начал заместитель президента РАН, директор Института системного программирования им. В.П.Иванникова РАН академик Арутюн Аветисян, отметив, что наблюдается хорошая динамика развития ИИ-инструментов, искусственный интеллект уже самостоятельно создает новые архитектуры нейронных систем, десятки тысяч моделей используются в индустрии, существуют миллионы финансовых инструментов.

    Академик выделил ключевые вызовы, стоящие на данном этапе перед сообществом, работающим с искусственным интеллектом. Во-первых, это фрагментация данных и ограниченный доступ к качественно аннотированным выверенным данным. Во-вторых, фрагментация технологического стека (инструментов для разработки в программировании). И, наконец, фрагментация компетенций: необходимо объединение специалистов в рамках междисциплинарных исследований, открытых сообществ вокруг соответствующего стека технологий. Что касается угроз, сопряженных с использованием ИИ, то они связаны, с одной стороны, с кибербезопасностью, а с другой - с социогуманитарным аспектом (проблемы честности генеративного ИИ, манипуляция общественным мнением и сознанием отдельного человека и т. д.).

    – Но есть базовые технологии, позволяющие создавать все эти модели. Причем сегодня очевиден тренд на специализированные. Я утверждаю, что академическое сообщество, академический институт - это наиболее правильная организация, которая позволяет создавать модели долгосрочного устойчивого развития. Пример тому - деятельность нашего института, - рассказал Арутюн Ишханович. - В 2021 году мы организовали Центр доверенного искусственного интеллекта. Два месяца назад на Digital Week в Казани мы подписали с Ростелекомом соглашение, в соответствии с которым разработки наших специалистов компания положит в основу своей платформы. Мы работаем и с медицинским сообществом, делаем большие модели вместе с Национальным медицинским исследовательским центром им. В.А.Алмазова и со Сбером.

    А.Аветисян подчеркнул, что все это удается благодаря научной школе, так как академический институт позволяет собрать вокруг себя не только академическое сообщество, но и индустрию, и государственные структуры.

    Академик Аветисян предложил создать единую открытую экосистему развития искусственного интеллекта в науке под руководством Российской академии наук, которая могла бы включить современную суперкомпьютерную инфраструктуру на базе распределенных центров обработки данных. Отделениям Академии наук нужно будет подготовить проекты такого технологического лидерства с синхронизацией с теми проектами, которые уже есть. А в самой РАН - создать соответствующий центр разработки, координации и трансфера лучших практик научной деятельности.

    По мнению первого заместителя директора Федеральной службы по техническому и экспортному контролю Виталия Лютикова, наряду с очевидными положительными эффектами от использования ИИ применение моделей машинного обучения несет дополнительные угрозы: так называемая датацентричность искусственного интеллекта дает возможность обучать модели нежелательному поведению, получать несанкционированный доступ к обучающим данным, вводить модели в заблуждение.

    Эти угрозы признаны актуальными и размещены в банке данных угроз, которые учитываются при создании государственных информационных систем и объектов критической информационной инфраструктуры. Проведенный анализ уже выявил попытки злоумышленников по созданию и применению вредоносного программного обеспечения, способного влиять на поведение модели машинного обучения.

    В этих условиях важнейшей задачей, определенной Национальной стратегией развития искусственного интеллекта, становится обязательное внедрение доверенных технологий искусственного интеллекта в тех областях, в которых может быть нанесен ущерб безопасности общества и государства.

    По словам В.Лютикова, имеется хороший задел для исследования безопасности программного обеспечения. Создаются инструменты тестирования и разработки, позволяющие выявлять дополнительные специфические угрозы. Такие средства и методики должны стать основой для создания стандартов безопасной разработки технологии искусственного интеллекта.

    – К разработке таких стандартов ФСТЭК России при участии Института системного программирования и ряда ведущих российских разработчиков уже приступил, - отметил Виталий Сергеевич.

    И подчеркнул, что уже сегодня необходимо задуматься о квалифицированных специалистах в области безопасности технологий ИИ.

    Выступление академика Александр Гинцбурга было посвящено применению ИИ в технологии создания персонализированных мРНК-вакцин для лечения онкологических заболеваний. Новая технология, разработанная в Центре им. Н.Ф.Гамалеи, позволяет научить иммунную систему пациента распознавать и уничтожать раковые клетки. Для этого ученые используют индивидуальные генетические данные каждого больного. «Математическая среда, разработанная в Институте системного программирования им. В.П.Иванникова РАН, превращает персональные генетические данные больного, а это порядка 5-15 тысяч мутаций, в структуру мРНК, которая используется в качестве вакцины», - рассказал академик.

    – Владимир Путин подчеркнул важность обладания собственным комплексом технологий искусственного интеллекта и продуктов на его основе, включая национальные фундаментальные модели. Работа над такими системами призвана стать серьезным стимулом для укрепления отечественной инженерной школы в этой сфере. Здесь важно сформировать полный цикл компетенций, необходимых для создания фундаментальных языковых моделей, - отметил заместитель начальника Управления президента по развитию информационно-коммуникационных технологий и инфраструктуры связи Олег Хорохордин.

    – Если в обучении нейронной сети использовать непроверенные данные, на выходе она будет давать искаженные результаты, - подчеркнул академик Владимир Бетелин.

    – Мы в 2024 году на базе Института системного программирования и Академии криптографии создали консорциум исследователей безопасности технологий искусственного интеллекта, который объединяет ведущие организации, стремящиеся обеспечить развитие и внедрение ИИ-технологий в соответствии с принципами надежности, прозрачности и этичности. Участники консорциума вместе работают над созданием решений, минимизирующих риски и повышающих безопасность ИИ, способствуя устойчивому прогрессу технологий на благо общества, - рассказал замминистра цифрового развития, связи и массовых коммуникаций Александр Шойтов и поддержал идею организации центра под руководством РАН, предложив внести в проект постановления президиума слова о создании специализированных полигонов исследований информационной безопасности ИИ.

    Завершил научную часть заседания Президиума РАН генеральный директор Госфильмофонда России Денис Аксёнов, рассказавший о сотрудничестве с Российской академией наук в сфере применения искусственного интеллекта для сохранения наследия в области кино.

    Андрей СУББОТИН

    Обложка: photogenica.ru

    Спецвыпуск «РАН: крупным планом». Сила мысли
    Фундамент для прорыва