Учёные Центра искусственного интеллекта Новосибирского государственного университета предложили революционную идею — проверять системы ИИ не только по техническим параметрам, но и по влиянию на человека. Для этого они разработали проект нового государственного стандарта, который вводит понятие «гуманитарной экспертизы».
Если документ утвердят, Россия станет первой страной, где искусственный интеллект будут оценивать с точки зрения морали, безопасности и пользы для общества. Пилотное испытание новой системы прошло на форуме «Технопром» летом 2025 года.
«Сегодня ИИ воспринимают как просто инструмент. Но важно понимать, что его массовое внедрение затрагивает человека — его поведение, ценности, здоровье, мышление. Поэтому нам нужен стандарт, который защитит гуманитарное измерение технологий», — объяснил идею один из авторов проекта, Сергей Смирнов.
Разработка основана на опыте этической экспертизы, применяемой в медицине и биотехнологиях — например, когда обсуждались проблемы клонирования и генной инженерии. Теперь подобный подход хотят применить и к цифровым системам.
В рамках экспертизы создаётся специальный опросник, по которому оцениваются риски и выгоды внедрения ИИ. Участниками становятся жители, профессиональные пользователи, власти, инвесторы и сами разработчики. Все ответы выставляются по десятибалльной шкале, формируя общий индекс гуманитарного риска и потенциала. Дополнительно учитываются показатели «умных городов» и качества городской среды.
Авторы стандарта считают, что гуманитарная экспертиза должна стать обязательной процедурой — такой же, как экологическая проверка на производстве. Любой ИИ-сервис, внедряемый в управление, медицину, образование или безопасность, должен пройти «проверку на человечность».
По словам разработчиков, в будущем этот стандарт станет частью закона об искусственном интеллекте, который сейчас готовится в России. Если проект примут, именно здесь, в Новосибирске, начнётся новая эра — эра ответственного и осознанного ИИ.


