Он может уверенно лгать. Искусственному интеллекту необходим воспитатель

Искусственный интеллект сущес­твует уже лет 70, но в глаза его так никто и не видел. Все восхищаются его колоссальным быстродействием и заоблачной памятью, а как использовать этот необыкновенный потенциал? Мнения на этот счет разные. Одни в восторге от этого универсального инструмента и видят в нем чуть ли не идеального помощника. Другие опасаются, что его фантастические способности до добра не доведут и представляют опасность для человека. Разобраться в этом далеко не простом вопросе «Поиск» попросил известного эксперта в области ИИ, заведующего кафедрами МГУ и МФТИ, руководителя лаборатории в Институте искусственного интеллекта МГУ профессора РАН Константина ВОРОНЦОВА:

— Искусственным интеллектом мы называем не что-то конкретное вроде суперкомпьютера, а направление научных исследований и набор технологий. Название появилось на семинаре в Дартмуте в 1956 году и было мечтой группы американских ученых в области компьютерных наук, что когда-нибудь их программы станут настолько умными, что смогут решать сложные интеллектуальные задачи. Например, играть в шашки, шахматы, ставить медицинские диагнозы по результатам обследований… В те годы это казалось фантастикой. Прошло два десятилетия — и такого рода задачи стали рутиной. Возникло даже понятие «эффект искусственного интеллекта» (AI effect) — пока задача не решена, она кажется сложной, и ее относят к области ИИ. Но как только решение становится понятным, те же ученые говорят: «Какой же это интеллект — снова всего лишь вычисления». Так повторялось тысячи раз на протяжении почти 70-летней истории ИИ, пока в 2020 году не появились большие генеративные языковые модели, и за пару лет отношение к ИИ неожиданно изменилось. Новый эффект назвали «эмерджентностью» (от англ. emergent — «возникающий», «неожиданно появляющийся»).

Раньше любая модель обучалась решению одной конкретной задачи по прецедентным данным. Например, чтобы научить модель ставить медицинские диагнозы, необходимо собрать большую выборку прецедентов. А в роли учителей выступают врачи, показывая модели, какие она должна предсказывать диагнозы в различных ситуациях. Языковая модель строится похожим образом. Она должна подсказывать слово в соответствии с контекстом. Модели, способные генерировать новый текст слово за словом, называются «генеративными». Они появились еще в 1950-е годы и даже раньше, были очень простыми и выдавали нелепые тексты. Зато языковые модели последних лет генерируют тексты вполне осмысленные, даже безупречные. Более того, дообучившись на диалогах с людьми, они неожиданно приобрели массу новых навыков, которым их никто не обучал, переводу на другие языки, например. Они способны решать логические и несложные математические задачи, исправлять собственные ошибки после небольшой подсказки, манипулировать собеседником, уверенно лгать и демонстрировать политическую предвзятость. Это и есть эмерджентность. Причем количество новых навыков увеличивается с размером модели и объемом текстов, на которых она обучалась. Модель делает это не преднамеренно, у нее вообще нет ни намерений, ни хитрости, ни желаний — просто в обучающую выборку попали и такие тексты. Их можно было обнаружить и убрать, но это гигантская дополнительная работа.

Научное сообщество впечатлилось. Одни утверждают, что проявился «нечеловеческий интеллект нового типа», механизм которого не ясен даже его создателям. Другие считают их опасения преждевременными. Я не склонен драматизировать эмерджентность. Она вполне объяснима. Большие языковые модели обрабатывают в процессе обучения практически все знание, накопленное человечеством, — терабайты текстов. Их размеры за четыре года выросли в 1000 раз (до триллионов параметров), контекст — в 100 раз (до 150 страниц), обучающие данные — также в 100 раз (до нескольких терабайт текста). Согласно эмпирическому закону Мура, производительность вычислительной техники удваивается примерно каждые два года. Рост больших языковых моделей оказался взрывным — он намного опережает закон Мура. И каждый раз, когда размер данных модели увеличивался на порядок, у нее возникали новые навыки. Впервые это проявилось на конкурсе литературных эссе в 2019 году, когда члены жюри не смогли отличить текст, сгенерированный моделью, от работ участников.

Можно ли теперь заявлять, что генеративные языковые модели обладают творческим интеллектом? Считаю, что нет. Большая нейронная сеть «впитала в себя» терабайты текстов. Параметров сети оказалось достаточно, чтобы запомнить лексику и закономерности строения языка для порождения новых текстов. Это просто формула, а никак не чудо и даже не интеллект. Мы и в самом деле плохо понимаем природу интеллекта как нашего собственного, так и создаваемого нами искусственного. Вполне возможно, что интеллект человека тоже является своего рода вычислением, пусть даже на других физико-химических принципах. Наша естественная нейронная сеть в тысячи раз больше по числу связей. Вполне возможно, что она тоже «впитывает в себя» события нашей жизни, запоминая закономерности окружающего мира, и этого вполне хватает, чтобы появлялись новые навыки: находить пищу, избегать опасностей, изобретать орудия труда, коммуницировать, рассуждать логически, заниматься науками.

— Можно ли избежать опасностей, которые, как считают многие, несет ИИ?
— Давайте разбираться. Есть опасности реальные, сегодняшнего дня и гипотетические будущие, которые еще не факт, что возникнут. Опасности идут не столько от технологий, сколько от нас самих, от того, кто и как, с какими целями их применяет. В настоящий момент наиболее ярко проявила себя опасность, связанная с когнитивными искажениями в нашем восприятии чат-ботов. Когда мы ведем диалог с говорящей машиной, то невольно наделяем ее субъектностью, которой у нее нет и быть не может. Отсюда необоснованное доверие. Известна история с юристом, который поручил чат-боту подбор прецедентов, похожих на его случай. Чат-бот описал пять судебных дел. Юрист предъявил их суду, и оказалось, что этих историй не было, модель их попросту выдумала. Это ошибка юриста: он должен был знать, что в текущей версии модель не годится для таких применений. Чат-бот не мыслит, у него нет намерений и целеполагания. Поэтому к нему неприменимы глаголы активного действия «решил», «сделал», «посоветовал», «обманул», «манипулировал»… Эти фигуры речи лишь закрепляют наши заблуждения. Нам предстоит отучаться так говорить и даже так думать, оказавшись в мире говорящих вещей.
Другая опасность связана с предвзятостью. В недавнем исследовании германские ученые сделали вывод, что одна из моделей обладает политическими пристрастиями среднестатистического инженера-программиста из района залива Сан-Франциско, человека леволиберальных проэкологических взглядов. Это означает, что любой сервис разговорного интеллекта может оказаться включенным в пропагандистскую кампанию даже независимо от намерений разработчика. Избежать этих и других опасностей возможно, если применять технологии того же уровня для противодействия угрозам. Например, в диалоге с человеком чат-бот должен объяснять свои возможности и ограничения. В вопросах, связанных с социальным конфликтом, — придерживаться нейтральной позиции, объясняя позиции сторон. Дословно цитировать и давать ссылки на проверенные источники. Помогать пользователю обнаруживать манипулятивные и пропагандистские тексты, раскрывать замалчивания, отбрасывать мусорный контент. Всем этим навыкам языковая модель не научится сама. Ее надо учить, вернее сказать, воспитывать.

— А как? Можно ли привить ИИ моральные принципы?
— Исследования в этом направлении уже ведутся. Есть относительно простые способы воспитания, связанные с более аккуратным подбором данных для обучения. Есть и более радикальные подходы. Например, внедрение навыка цитирования надежных источников требует изменений в архитектуре модели и способах хранения исходной выборки текстов. Технологически это все решаемые проблемы, но они требуют дополнительных исследований. Также важно убедиться, что модель безопасна при ее использовании людьми. Для этого разрабатываются тесты, проверяющие всевозможные аспекты безопасности, доверенности, этичности. Открытые пока вопросы: должна ли модель общаться с человеком в рамках заданной идеологической или морально-этической системы, понимать эмоции и психическое состояние человека или его социальный статус и в соответствии с этим корректировать общение? Это предмет дальнейших исследований. Если мы ответим на него «да», то поставим перед собой задачу разработки языковой модели, которая не только прочитала учебную и научную литературу по культурологии, психологии, социологии, политологии, но и умеет применять эти знания на практике для выстраивания эффективной коммуникации с человеком.

— Не очень серьезный вопрос: значит ли это, что к работе с ИИ надо допускать лишь людей положительных?
— Нужно знать, не кто пользователь модели, а кто ее создатель. На него падает гигантская цивилизационная ответственность, ведь наиболее успешные модели скоро будут обслуживать многомиллиардную многоязычную аудиторию. Большие языковые модели становятся новым интерфейсом между человеком и знаниями, накопленными человечеством. Интерфейсом не только гораздо более удобным, но и содержащим в себе скрытые опасности, пока еще до конца не осознанные.

— Вы заведуете кафедрами двух ведущих вузов страны — МГУ и МФТИ. Чему вы обучаете ваших студентов? Какие задачи перед ними ставите?
— Учим создавать новые технологии. Сегодня мы обсудили большие языковые модели. Конечно, это самая прорывная область исследований не только в искусственном интеллекте, но и в компьютерных науках вообще. Есть много других областей с очень востребованными компетенциями, которыми также необходимо овладевать будущим инженерам и исследователям. Востребованность нашей профессии росла всегда, но в последнее десятилетие просто получила взрывной рост. Везде нужны специалисты по анализу данных, машинному обучению и искусственному интеллекту. Эта работа не только высоко оплачивается, но еще безумно интересна и увлекательна. Потому что это про будущее.

— Всегда ли преподаватели оказываются на уровне запросов ваших продвинутых студентов?
— Высшее образование — как известно — область достаточно консервативная. Преподаватели нужны разные. Есть классика, которая не устаревает. Машинное обучение в значительной степени основано на математике XIX и XX веков, которую надо хорошо знать и уметь преподавать. Есть передний край науки и технологий, где ландшафт знаний сильно меняется каждый год, а за новостями необходимо следить постоянно. Преподавать такие дисциплины нужно совсем по-другому. Как и во всем, мы стараемся соблюдать баланс, золотую середину.

Подготовил Юрий Дризе

Нет комментариев