Мигающий желтый. С искусственным интеллектом ехать можно, но с осторожностью

Чуть более года назад, в ноябре 2022-го, в нашу жизнь пришел чат-бот ChatGPT и наглядно продемонстрировал возможности технологий искусственного интеллекта (ИИ).
Широкая общественность оценила его умение создавать тексты, картинки, отвечать на каверзные вопросы, писать статьи и даже дипломные работы. Однако явная польза такой «игрушки» уравновесилась сомнениями: не может ли она навредить, вытеснить интеллект человеческий?
В этом и других вопросах разбирались ученые и журналисты, участники встречи в Научном кафе, организованном Фондом Андрея Мельниченко.

Термин «искусственный интеллект» возник в далеком 1956 году. Его придумал американский информатик, будущий лауреат премии Тьюринга Джон Маккарти.
С тех пор появились различные трактовки ИИ.
О том, что сегодняшние ученые называют этим термином, рассказала доктор технических наук, профессор ВМК МГУ, ведущий научный сотрудник НИВЦ МГУ Наталья Лукашевич. По словам профессора, некоторые определяют искусственный интеллект как систему, обладающую мышлением, похожим на человеческое. Другие же считают главным, чтобы при принятии решений система могла вести себя рационально, может быть, даже лучше, чем человек.
При этом все сходятся в том, что ИИ — это область науки и технологий, которая занимается автоматизацией решения интеллектуальных задач и способна в этом деле подменить человека.
Эксперт в области машинного обучения Сергей Марков (он занимает должность управляющего директора, начальника управления экспериментальных систем машинного обучения Департамента общих сервисов Сбербанка) подчеркнул, что благодаря проекту ChatGPT многие люди узнали о существовании генеративных языковых моделей, трансформеров, способных решать достаточно широкий спектр задач.
Интересно, что сама идея нейросетевого языкового моделирования, сегодня воспринимаемая большинством как некое ноу-хау, возникла еще 20 лет назад, а в ее основе лежит уж совсем не новая дисциплина — статистическая лингвистика.
И все же в чем разница между интеллектом человеческим и искусственным?
Специалисты в области ИИ вместо того, чтобы ввязываться в философские дискуссии, подошли к проблеме немного с другой стороны и рассуждают примерно так: наша нервная система — это физическая структура, которая состоит из атомов, молекул, нейронов, обменивающихся сигналами в нашем мозге.
Что люди, что машины — мы являемся частью единой физической вселенной. И в этом смысле, когда мы начинаем говорить о настоящем или ненастоящем мышлении, важно понимать, что и искусственная, и биологическая нейронные сети — это все физические процессы, которые происходят в действительности.
Наш мозг — удивительное устройство. Его возможности превосходят возможности современных вычислительных машин.
Впрочем, в природе есть другие живые организмы, которые определенные интеллектуальные задачи решают лучше людей. Например, пчела, нервная система которой очень мала по сравнению с нашей, найдет оптимальные маршруты в улье быстрее и точнее, чем это сделает человек. Почему так получается? Из-за очень высокой степени специализации: ее нервная система заточена под решение такой задачи.
— Мы умеем сегодня создавать интеллектуальные системы, которые за счет своей очень узкой специализации могут какие-то задачи решать лучше. Цель создания систем искусственного интеллекта состоит прежде всего в расширении способностей людей, — подчеркнул Сергей Марков.
Ассистент кафедры алгоритмических языков факультета вычислительной математики и кибернетики МГУ Наталья Ефремова напомнила, что обсуждаемая версия ChatGPT обучена на всех данных из Интернета, имеющихся к апрелю нынешнего года.
— Когда мы начинаем его способности сравнивать со способностями отдельно взятого человека, это немного странно.
Давайте соберем в единое целое всех жителей Земли и сравним их знания с ChatGPT, тогда это будет хоть как-то сопоставимо, и мы сможем оценить, кто умнее. Потому что он впитал все, что было сделано до апреля 2023 года, и, конечно, творит потрясающие вещи. Но ведь и мы творим такие же вещи. Отдельно взятый человек — нет, но все мы вместе — да! — уверена Наталья Ефремова.
Какие же задачи стоят сегодня перед ИИ?
Заведующий лабораторией нейросетевых технологий МФТИ Станислав Ашманов рассказал, что компании заказывают специалистам разработку нейросетей для разных целей.
— На самом деле неважно, что используется, нейросеть или другой алгоритм, люди хотят решить какую-то свою задачу по автоматизации интеллектуальной деятельности.
Обычно это типовые вещи: компьютерное зрение, то есть поиск каких-то объектов на изображениях и видео, сегментация этих объектов, трекинг. Есть серия задач по классификации текстов, извлечению объектов из документов, рерайтинг, различные задачи по речевым технологиям, распознавание или генерация речи, — рассказал он.
Все мы сегодня встречаемся с чат-ботами в телеграмм-каналах, на различных сайтах, в колл-центрах. Но оказывается, для специалистов наиболее интересно «приземлять» языковые модели на «борт» роботов и в виртуальные миры, чтобы, например, в компьютерной игре взаимодействовать с виртуальным персонажем, совершенно как с живым человеком.
По словам Станислава Ашманова, говорящие колонки «Алиса», а по сути, генератор текста — это обыденность, вчерашний день. Гораздо важнее, что большая языковая модель может использоваться для анализа зашумленных, противоречивых данных и служить «движком логического вывода» для робота.
Еще одна важнейшая задача — создание интерфейса коммуникаций с роботами. Пока таких алгоритмов нет, максимум, на что роботы способны, — это подслушивать и передавать услышанное.
С появлением языковых моделей интерфейс коммуникации становится гораздо более естественным, простым.
Как только речь на Научном кафе зашла о взаимодействии с роботами, сам собой встал вопрос, может ли нам навредить искусственный интеллект?
Завкафедрой философского факультета МГУ кандидат философских наук Елена Брызгалина напомнила, что современные нейросети не только распознают эмоции, но и генерируют их. Но пока ИИ не обладает волей и собственным целеполаганием — это инструмент в наших руках.
— Есть идея наделить искусственный интеллект субъектностью, и это — позиция некоторых стран, которые сегодня лидируют в области ИИ.
Позиция РФ в этом вопросе абсолютно иная: искусственный интеллект никогда не должен рассматриваться как субъект, который сам ставит цели, выбирает способы их достижения и, главное, несет ответственность за сделанное. Представить себе, что когда-нибудь автомобиль-беспилотник с ИИ ответит за аварию, довольно трудно, — рассуждает Брызгалина.
В то же время есть множество задач, решение которых стоит доверить искусственному интеллекту. Например, выбор нового гаджета. Алгоритм ИИ быстрее проанализирует объем предложений, имеющихся на рынке, сравнит их по соотношению «цена — качество» и выдаст аргументированный ответ.
Но вот недавнее решение о вакцинации от ковида мы принимали не на уровне алгоритма, а руководствуясь категориями ценности. Кто-то прививался, доверяя ученым и беспокоясь о здоровье близких, которых не хотел подвергать риску — это абсолютная ценность — а кто-то руководствовался эгоцентрическими соображениями и предпочел дождаться достижения коллективного иммунитета за счет других привитых людей.
— Чего мы не должны доверять искусственному интеллекту, так это ценностный выбор, — уверена Елена Брызгалина.
Человечество придумало два императива новых высокорискованных технологий — это право и этика. Многие страны попытались создать специальные документы и провозгласить высший уровень этических принципов искусственного интеллекта — доверенный ИИ, или ИИ, уважающий автономию человека.
Но любые абстрактно сформулированные принципы нуждаются в уточнении. Что такое доверенный ИИ, для кого он?
— Есть иной уровень регулирования ИИ — это позиция разработчиков. Здесь наша страна вновь впереди: в 2021 году у нас был принят Кодекс этики искусственного интеллекта, к которому каждый год присоединяются новые разработчики. Но и этого отдельно взятого уровня недостаточно. Тогда возникает третий уровень: это социально-гуманитарная экспертиза конкретных проектов, — подчеркивает Елена Брызгалина.
По словам ученого , каждый раз в каждом отдельном случае надо отвечать на вопрос: опасно или безопасно? И этика — это не попытка включить красный свет на пути технологий, это «мигающий желтый»: ехать можно, но с осторожностью.
Чем дальше, тем активнее будут развиваться междисциплинарные новаторские проекты, и без социально-гуманитарной оценки их последствий, по мнению философа, просто не обойтись.
Как в реальности сложатся взаимоотношения человека с искусственным интеллектом, загадывать сложно. Но хочется надеяться, что он действительно станет хорошим помощником в расширении наших возможностей.

Светлана БЕЛЯЕВА
Фото автора

Нет комментариев