Преступление без наказания: можно ли привлечь к ответственности ИИ?

07.11.2022

За последнее десятилетие искусственный интеллект проник во многие сферы человеческой жизни и стал предметом огромного числа исследований. Возрастающая скорость внедрения новых технологий делает все более актуальными правовые вопросы – как регулировать искусственный интеллект, нужны ли ему человеческие свободы, и как обеспечить безопасность подобных разработок? На эти вопросы ответил эксперт в области правового регулирования ИИ, автор многочисленных научных статей на данную тему, заместитель директора по развитию Института математики и компьютерных технологий ДВФУ, д.ю.н. Роман Дремлюга.

— Искусственный интеллект (ИИ) сегодня пишет стихи и песни, создает картины, водит автомобили, регулирует дорожное движение. Пожалуй, сложно назвать какую-то сферу, где бы ИИ не нашел своего применения. Роман Игоревич, но много ли стран воспринимают данную технологию, как субъект права?

— Сегодня ни одна страна мира не признает искусственный интеллект, как субъект права – по сути у него пока нет ни прав, ни обязанностей. В данный момент в Бразилии рассматривается возможность признать ИИ агентом права и наделить его ограниченным кругом свобод и обязательств. Впрочем, все остальные страны в этом плане более сдержанны, и пока данный юридический вопрос не рассматривают.

— Корректно ли вообще поднимать вопрос об ответственности искусственного интеллекта, если пока ему не доверяют автономных решений в чем-либо серьезнее распознавания котиков на картинке?

— Де-юре никто не хочет признавать ИИ субъектом принятия решения, но де-факто – это уже происходит повсеместно. Известный пример произошел несколько лет назад в США с системой искусственного интеллекта, которая помогала судьям выносить решение об условно-досрочном освобождении, оценивая риски повторного совершения преступления. Юридически, конечно же, судьи были ответственными за принятые решения, но фактически они ссылались на «рекомендацию» системы и обычно следовали ей. ИИ использовался на протяжении нескольких лет, пока независимые журналисты не выяснили, что он склонен ошибаться, и как правило – не в пользу афроамериканцев.

Право на ошибку

— Искусственный интеллект может ошибаться, но делает ли он это чаще, чем обычные люди?

— Как показывает практика, искусственный интеллект превосходит человека в решении отдельных задач. Он сможет быстрее обработать большие данные, лучше определит пневмонию по компьютерной томограмме, более точно предскажет погоду, ну и конечно же, он более метко стреляет, если мы говорим о такой перспективной сфере развития ИИ, как автономные боевые машины. Поэтому среднестатистический человек действительно в целом проигрывает этой технологии.

— Впрочем, бояться полной замены человека искусственным интеллектом пока еще рано?

— Да, это так. Взрыв развития технологии случился 7-8 лет назад, когда появились нейронные сети, и все решили, что до разработки «сильного» ИИ, равного или превосходящего людей, остались считанные дни. Но сегодня оценки более сдержанны, пришло понимание, что применение технологии не везде уместно. Да, спектр и простых, и сложных работ, который ИИ делает лучше, впечатляет. Но когда мы сталкиваемся с задачами, где требуется «человечный» подход, сложные оценки, множество смягчающих и отягчающих обстоятельств, искусственный интеллект пасует.

К тому же ИИ строится на данных, а их производят люди. Мы можем научить систему выносить судебные решения, «накормив» большой базой данных. Но весь этот процесс пойдет насмарку, если в закон внесут поправки, ведь «пищи» в виде судебных дел еще не будет. Поэтому, если реалистично смотреть на вещи, то нам далеко до превосходства ИИ, но он определенно дает преимущества тем странам, компаниям и людям, которые его используют в разных сферах: от научной до военной.

— Некоторые ошибки искусственного интеллекта могут дорого стоить, например, когда речь заходит о дорожном движении. А сложно ли целенаправленно заставить ошибаться ИИ, либо «обманывать» современные системы?

— Действительно, многие политики и бизнесмены обещают нам, что ИИ сделает какую-либо сферу безопаснее и эффективнее, и мы часто слышим это о беспилотном транспорте. Он призван в десятки раз снизить аварийность и решить проблему дорожных заторов. Но оказалось, что зрение беспилотного автомобиля очень легко обмануть. Проводилось множество экспериментов – люди спреем закрашивали дорожные знаки, ходили по обочинам в футболках с принтом знаков, и это сбивало компьютерное зрение с толку. Даже незначительные изменения приводили к серьезным эффектам, и система вела себя некорректно. Многим хочется попробовать себя в качестве «взломщика». Кто-то делает это из любопытства, а кто-то целенаправленно ищет уязвимости, чтобы совершить киберпреступление. Поэтому безопасность ИИ – это серьезная проблема, которая требует очень вдумчивого подхода со стороны разработчиков.

Восточные и западные подходы к ИИ

— На базе ДВФУ работает Дальневосточный центр искусственного интеллекта (ДЦИИ), который был открыт совместно со Сбербанком. Какие задачи стоят перед ним?

– Центр занимается широким спектром задач — от анализа регулирования ИИ в странах АТР до исследований в области устойчивого развития. ИТ-специалисты ДВФУ и Сбербанка ведут совместную работу в нескольких проектах. Например, ДЦИИ принимает участие в разработке решений, направленных на разрешение ключевых экологических проблем – создании модели мониторинга и прогнозирования токсичных «красных приливов», тропических циклонов, ведет разработку моделей, позволяющих снизить экологический вред при вылове водных ресурсов и т.д. Кроме того, центр будет участвовать в создании комплексной модели ИИ, направленной на сохранение популяции амурского тигра и других редких животных Дальнего Востока.

Отмечу, что открытие Дальневосточного центра ИИ стало возможно, благодаря программе развития университетов «Приоритет 2030». Государственная поддержка не только подчеркивает значимость нашей работы, но и помогает ДВФУ создавать на острове Русский самодостаточный цифровой кластер мирового уровня, который ускорит цифровизацию всего макрорегиона, а значит, работа ДЦИИ будет востребована.

– Первым значимым результатом работы Дальневосточного центра ИИ является публикация книги «Глобальный атлас регулирования искусственного интеллекта. Восточный вектор», иллюстрированный нейросетью. Книга вышла под вашей редакцией. На какие вопросы она отвечает?

— Во-первых, книга дает ответ на вопрос, как продавать IT-продукты, основанные не технологии искусственного интеллекта, на рынках исследуемых азиатских стран. Во-вторых, она отвечает на вопрос, как развивать данную технологию в России. В исследовании можно проследить, к чему привело внедрение того или иного регулирования, а также посмотреть успешные примеры развития нормативной базы стран-лидеров IT-отрасли в АТР.

— Уникальность книги в том, что политика, право и этика ИИ в странах АТР впервые стала объектом внимания российских исследователей. Ученые в России, как правило, изучают европейский или американский опыт. Есть ли различия между подходом к искусственному интеллекту на Западе и Востоке?

— Есть, и очень существенные! Население азиатских стран относится с большей терпимостью к технологиям искусственного интеллекта, поскольку адептам конфуцианства проще делиться данными с государством. У них вообще распространено понятие, что государство – это большая семья, где все друг за другом присматривают. Отличный пример – система социального рейтинга в КНР. Поэтому в Азии нет такого отторжения ИИ, как в Северной Америке или Европе, где сбор данных воспринимается, как вторжение в личную жизнь и нарушение прав. Из-за этих различий в Европе принят регламент, который серьезно тормозит развитие технологии искусственного интеллекта — GDPR, почти полностью ограничивающий использование персональных данных граждан.

— А к какому вектору развития ИИ больше тяготеет Россия – к восточному или западному?

— Думаю, что в этом вопросе нам ближе Восток.

— В «Атласе» особый акцент делается не только на правовом регулировании, но и на этике искусственного интеллекта. Однако здесь имеются в виду не традиционные этические моменты, связанные, например, с вопросом «испытывает ли ИИ боль»?

— Действительно, в книге такие аспекты мы не затрагиваем, однако понятие «этика» вполне уместно. Многие государства не закрепляют регулирование ИИ в качестве законов, а просто вступают в диалог с разработчиками и совместно договариваются о правилах игры. Эти правила необязательны, за их нарушение нельзя привлечь к ответственности, однако тех, кто их соблюдает, государство может поддержать какими-то бонусами. В России тоже идут по такому пути – в прошлом году был принят «Кодекс этики искусственного интеллекта», к которому присоединились все топовые IT-компании страны, а также Дальневосточный федеральный университет.

— Если мы затрагиваем этику, то нельзя обойти тему алгоритмов и рекомендаций. «Умные» ленты новостей, которые подбирают интересные новости и игнорируют все остальные, «умные» плейлисты, избегающие экспериментов и состоящие из песен, которые точно понравятся, контекстная реклама товаров, которые нужны именно сейчас – этот список можно продолжать очень долго. ИИ манипулирует нашими интересами?

—ИИ действительно манипулирует человеком, когда предлагает ему что-то, от чего он не может отказаться. По некоторым рекомендациям число продаж дополнительных товаров доходит до 90% — можно ли в этом случае говорить о свободе выбора? «Умные» ленты соцсетей стали инструментом политиков, которые умело пользуются таргетированной рекламой. Свобода выбора может «сжаться» до нажатия кнопки «ок» в решениях, предлагаемых искусственным интеллектом.

Мне кажется, лучшей защитой от манипулирования людьми при помощи искусственного интеллекта было бы развитие интеллекта естественного. Человек, осознающий свой выбор, понимающий основы социальных и политических процессов, в некоторой степени застрахован от манипуляции. Кроме того, необходимо понимать, что такая манипуляция зачастую действительно полезна — если ИИ лучше ставит диагноз, то глупо не следовать его рекомендациям. Такое поведение будет сродни поведению ребенка, который не хочет слушаться родителей, которые желают ему добра.

Полигон ИИ на базе университета

— В Дальневосточном федеральном университете технология ИИ лежит в основе сразу нескольких научных проектов, связанных с медициной, экологией, устойчивым развитием территорий. Вы принимаете участие в создании «умного» кампуса, который сможет масштабироваться до «умного» города. Расскажите подробнее об этом проекте?

— В ДВФУ искусственный интеллект с помощью обработки многочисленных данных создает особую экосистему, как внутри помещений университета, так и на его обширной территории. Разработки «умного» кампуса нацелены не столько на управление системами жизнеобеспечения университета, сколько на комфорт его гостей и жителей. Например, виртуальная навигация, мониторинг видеопотоков с камер для безопасности, климат-контроль, анализ потребления электроэнергии, экомониторинг и т.д. Список цифровых сервисов, которые разрабатываются в этом проекте, очень внушителен. Проект масштабный и интересный, в нем активно участвуют как молодые ученые, так и студенты университета.

— А студенты принимают участие в разрешении возможных правовых коллизий, связанных с ИИ в кампусе?

— Проект называется «Научно-образовательный и испытательный полигон: интернет вещей и интеллектуальные технологии устойчивого развития», а это значит, что весь университет представляет собой исследовательскую площадку. Мы много лет со студентами разбираем общемировые коллизии систем ИИ. Например, моделируем решения знаменитой «проблемы вагонетки» для беспилотного поезда. Ребята сами придумывают правила принятия решений, и сами же находят в них нелогичность и противоречия. Уверен, этот опыт мысленных и реальных экспериментов пригодится и при программировании ИИ нашего кампуса.

 

Справка: Полигон для различных систем искусственного интеллекта создается на базе ДВФУ в рамках программы «Приоритет 2030» и входит в стратегический проект «Центр цифрового развития». Помимо создания систем «умного» кампуса, в стратегический проект входят разработка поддержки принятия врачебных решений в области кардиологии, апробация нового метода реабилитации людей с ОВЗ в VR, а также технология по очувствлению протезов.

 

Текст, фото: пресс-служба ДВФУ

Нет комментариев