С человеческим лицом. Каким должен быть искусственный интеллект - Поиск - новости науки и техники
Поиск - новости науки и техники

С человеческим лицом. Каким должен быть искусственный интеллект

«Комплекс технологических реше­ний, позволяющих имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека», – так трактуется понятие «искусственный интеллект» в Национальной стратегии развития ИИ в России. «Под такое определение четко подпадает калькулятор», – заметил научный руководитель инженерного направления Южного федерального университета академик Игорь Каляев, выступая на заседании Президиума РАН, которое было посвящено проблемам ИИ в контексте информационной безопасности. И эта шутка показала, насколько ИИ непростая и еще не регламентированная как следует область.

«Искусственный интеллект – это целый новый слой вопросов, серьезная сфера, включающая в себя новые элементы, которые могут оказаться уязвимыми», – отметил президент РАН Александр Сергеев, открывая заседание. Доклады и сопутствующая им дискуссия показали, что у ИИ много разных граней: от математической составляющей до общефилософских аспектов.

О безопасности технологий искусственного интеллекта рассказал директор ФИЦ «Информатика и управление» РАН академик Игорь Соколов. Он начал выступление с экскурса в историю, отметив, что Академия наук с 1986 года «пристально и подробно» изучает эту проблему, и рассказал об ученых, которые внесли наибольший вклад в создание искусственного интеллекта.

Игорь Анатольевич обозначил уязвимости ИИ, прежде всего с точки зрения математики. Он представил основные теоретические методы, применяемые в работе с ИИ: представление знаний, приобретение знаний компьютерными системами, мо­делирование и автоматизация рациональных рассуждений и порождение познавательных ги­потез, автоматизация планирова­ния и целенаправленного пове­дения, автоматический анализ речи.  При этом подчеркнул, что их теоретическое поле нельзя ограничивать искусственными нейронными сетями и машинным обучением. Это методы, решающие задачи, для которых отсутствует или не подходит известный алгоритм решений. Например, человеческая речь не поддается описанию с помощью дифференциального уравнения, и необходимость извлечения этих данных рождает новую математику.

По словам Соколова, одна из основных проблем – фильтрация знаний. Сегодня топовые нейронные сети содержат более 500 миллиардов параметров. И этот объем баз данных будет только расти. «Что будет завтра, мы не знаем», – подчеркнул ученый. Отсюда и угрозы безопасности. Уязвимость ИИ позволяет умышленно искажать данные, модели и объекты на этапах применения. По словам академика, достаточно изменить всего пиксель на фотографии, чтобы ИИ идентифицировал объект на ней, например, тигра как медведя.

Игорь Анатольевич рассказал о том, как ученые пытаются обезопасить технологии интеллектуальных систем. Он подчеркнул, что эта сфера требует фундаментальных исследований и поэтому нужна другая аппаратная база. По словам академика, обычные процессоры неэффективны для решения матричных уравнений, сегодня уже активно идет развитие новых графических ускорителей, в сотни раз увеличивающих производительность вычислительных машин.

Александр Сергеев, упомянув о недавнем визите в Росгидромет, отметил, что молодые исследователи не делают акцент на математических вычислениях, а используют накопленные базы данных и при этом «выдают более быстрые и точные результаты». «Зачем тогда наука?» – задал вопрос глава РАН.

“Уверен, что через некоторое время мы забудем понятие «ИИ». Родится что-нибудь новое. Очевидно лишь, что происходит революционный перелом”, – ответил Соколов.

“Поезд несется вперед. В госпрограмме по развитию ИИ базовой организацией выступает Сбербанк. Очень активно работает Сколтех. Тревожно, что РАН находится на обочине этого процесса. Академические учреждения должны тоже сказать свое слово”, – отметил глава РАН.

Кибербезопасность в контексте искусственного интеллекта стала темой выступления директора Института системного программирования РАН академика Арутюна Аветисяна. Он напомнил о том, что в 2018 году было принято решение Президиума РАН о новом научном направлении «Анализ, трансформация программ и кибербезопасность», а в 2021-м утверждена новая специальность ВАК «Кибербезопасность». Проводимые в этой сфере исследования связаны с анализом и систематизацией уязвимостей, моделированием политики информационной безопасности, угроз и атак. Вырабатываются методы, алгоритмы и средства пострелизного анализа защищенности ПО, проводится масштабируемый мониторинг инцидентов безопасности в распределенных программно-аппаратных системах и т. п.

“Мы живем в мире, когда взламывают наши системы, воруют наши данные, но мы все равно это используем. Нужно научиться жить в таком мире, быть сильными, а не пытаться отгородиться и говорить, что мы теперь в бункере, поэтому в безопасности. Академия наук, мне кажется, – та организация, которая должна возглавить и вести этот процесс”, – сказал Арутюн Ишханович.

По мнению Аветисяна, неиспользование ИИ чревато отставанием и невозможностью трансформации экономики и госуправления. Академик отметил, что сегодня ИИ «слабый»: может решать только те задачи, для которых он запрограммирован, а информацию извлекает из ограниченного набора данных. Должен появиться «сильный» ИИ, способный решать задачи на уровне человека и использовать стратегии, функционируя в условиях неопределенности. Он будет общаться с человеком на естественном языке и планировать действия.

Также Арутюн Ишханович рассказал о рисках использования ИИ в промышленных системах, об особенностях атак на модели машинного обучения, о кражах данных и моделей из облачных сред.

Для решения этой и иных проблем в России организуется Центр доверенного ИИ на базе ИСП РАН, один из шести центров, создаваемых в рамках федерального проекта «Искусственный интеллект», который курирует Минэкономразвития. Победа в конкурсном отборе стала для ИСП РАН одним из главных событий 2021 года.

«Мы из этих шести центров – единственная академическая организация, – рассказал академик. – Но очевидно, что одна организация все вопросы решить не может. С самого начала в заявке было заложено, что мы будем создавать сообщество и, по сути, берем на себя роль научного лидерства, когда 30-40% задач выполняем мы, а остальные – партнеры”

Среди партнеров – «Лаборатория Касперского» и «Роскосмос» в лице ЦНИИМАШа, а также МФТИ, Сколтех, МНОЦ МГУ, мехмат МГУ, Университет Иннополис, Нижегородский госуниверситет, Институт психологии РАН, Межведомственный суперкомпьютерный центр РАН, ЗАО «ЕС-Лизинг», «Интерпроком», «Технопром».

“Будет расширяться и академическое сообщество. РАН должна возглавить руководство таким сообществом. В РФ достаточно для этого научных школ, и есть серьезный задел. Нужно идти на международные контакты, не ставя перед собой задачу «обогнать». Надо поступательно развиваться и держать паритет”, – сказал ученый.

Сергеев предложил создать отдельный Научный совет РАН по безопасности искусственного интеллекта, который бы рассматривал соответствующие проблемы с точки зрения физики и математики. Новая структура может работать параллельно с Научным советом РАН по методологии искусственного интеллекта и когнитивных исследований, который действует уже в течение 15 лет и рассматривает развитие систем ИИ комплексно – с точки зрения гуманитарных, естественных и технических наук.

Председатель упомянутого совета академик Владислав Лекторский, заметил, что у ИИ «иная рациональность, нежели у человеческого разума». Если действие человека отличается свободой выбора, осознанием того, что он делает, и ответственности за это, то по отношению к новым технологиям в этом плане возникают вопросы, сказал ученый. Непонятно, кто отвечает за действия искусственного интеллекта: разработчик, владелец или сама система. Владислав Александрович подчеркнул, что в юриспруденции уже прорабатывается понятие «ответственность электронного лица».

Возникают и этические проблемы, отметил Лекторский. В Институте философии РАН есть специалисты в области этики, моральной философии, которые во взаимодействии со специалистами в сфере ИИ эти вопросы изучают. Бесконтрольные разработки могут стать угрозой для человечества. На Западе в этой связи было введено понятие «доверенный искусственный интеллект», то есть доброжелательный по отношению к человеку. Существует и опасность того, что скоро человек окажется в полной зависимости от искусственного интеллекта. В обсуждении этих проблем не обойтись без философии.

Комментируя выступление Лекторского, Сергеев подчеркнул, что работу по гуманитарным направлениям необходимо продолжать, но важно усилить именно физико-математические аспекты рассмотрения проблем ИИ в рамках отдельной структуры, организовав в дальнейшем взаимодействие.

Академик-секретарь Отделения нанотехнологий и информационных технологий РАН Геннадий Красников отметил, в свою очередь, что разделение функций – логичное решение. Подытоживая обсуждение, глава РАН предложил соответствующим секциям Отделения математических наук и Отделения нанотехнологий выработать совместное предложение о новом Научном совете.

По мнению академика Каляева, ИИ должен быть не только «доверенным», но и «патриотичным». Для этого нужно сформулировать и внедрить в практику научно-обоснованное определение ИИ, разработать и утвердить методику оценки доверия к ИИ, учитывающую в том числе и его патриотичность. Необходимо также, считает ученый, вместе с техническим комитетом №164 по стандартизации «Искусственный интеллект» разработать и внедрить стандарт оценки доверенности к системам ИИ. Еще один момент, на который обратил внимание докладчик, состоит в том, что основные достижения ИИ в том понимании, как мы его сегодня осознаем, связаны не с тем, что компьютеры стали умнее, а с тем, что они стали производительнее.

Профессор РАН Константин Воронцов посвятил свое выступление фейкам и особенностям «политики постправды». Поисковые интернет-системы с их ранжированием – это искусственный интеллект. Рекомендательные системы – это тоже искусственный интеллект. Воронцов представил технологии выявления обмана. Фейкам невозможно противостоять без современных технологий машинного интеллекта, способных обрабатывать потоки текстовой и мультимедийной информации объемом в сотни миллионов сообщений в сутки. В интеллектуальном анализе данных стремительно выделилась новая область исследований – детекция фейковых новостей.

“Противостояние угрозам политики постправды – социально значимая задача, миссия и вызов для научно-технического сообщества. Решение этих задач требует междисциплинарного подхода, объединения усилий политологов, журналистов, лингвистов, психологов и AI-инженеров”, – резюмировал Воронцов свое выступление.

Александр Сергеев с докладчиком согласился.

Академик Красников посвятил свое короткое выступление новостям аппаратной части технологий ИИ. Заместитель президента РАН член-корреспондент РАН Владимир Иванов подчеркнул, что информационные технологии и технологии ИИ можно назвать базовыми технологиями XXI века, на них будут основываться все без исключения направления развития, организации управления в самом широком диапазоне – от малого предприятия до государственного – а также образование, здравоохранение и т. д. Именно эти технологии определят новый этап глобализации – «Глобализация 4.0: наука, технологии, инновации».

“Считаю правильным, чтобы на основании сегодняшнего обсуждения мы решили создать академический Совет по безопасности искусственного интеллекта”, – подвел итоги обсуждению Сергеев.

Президиум поддержал идею организации нового cовета по ИИ, а также предложение обсудить в Совете безопасности РФ вопросы о создании доверенного искусственного интеллекта, то есть «с человеческим лицом».

Андрей СУББОТИН

 

1 комментарий

  • МФТИ, ФКН ВШЭ, ВМК МГУ. Убийство академика РАН, замаскированное под суицид. (документы в публикации livejournal) Только ленивые СМИ РФ не писали о проведенном на 36 млн. руб. тендере ИСП РАН по создание технологии оценки личности по соцсетям. Но ни одно крупное издание РФ не задалось вопросом: А что случилось с основателем ИСП РАН Иванниковым В.П., чьё имя носит упомянутый институт?

Загрузка...
Новости СМИ2