Сможет ли робот стать моральным существом? И готовы ли мы доверить ему заботу о стариках или проведение хирургических операций? Эти вопросы перестали быть сюжетами фантастических романов. Философ Алексей Антипов, к.ф.н., старший научный сотрудник Института философии РАН, предлагает взглянуть на проблему через призму так называемого «морального теста Тьюринга» — современной модификации знаменитого теста, который когда-то должен был определить, способна ли машина мыслить.
Сегодня мало проверить, умеет ли искусственный интеллект поддерживать беседу. Гораздо важнее понять, может ли он принимать этически сложные решения. Например, в медицине или при уходе за пожилыми людьми. Именно здесь на сцену выходит моральный тест Тьюринга. Суть его проста: если судья не может отличить рассуждения человека от рассуждений машины на сложную этическую тему, то машина, согласно этому критерию, ведет себя как моральный агент.
Ученые предлагают разные версии такой проверки. Есть, например, сравнительный тест, где судье показывают пары поступков — один совершен человеком, другой роботом — и просят оценить, какой из них менее морален. Если машину не будут постоянно считать «хуже», тест пройден. Другой подход — тест на этическую безопасность, который не требует от машины души или совести, а лишь проверяет, не навредит ли она человеку. Это как краш-тест для автомобиля, только для морали.
Один из самых острых мысленных экспериментов предложил философ Роберт Спарроу. Он просит представить больницу, где искусственный интеллект помогает врачу. Случается авария, и энергии хватает лишь на то, чтобы поддерживать жизнь либо одного пациента, либо самого ИИ. Выбор между человеком и машиной пока кажется очевидным в пользу человека. Но Спарроу задается вопрос: если когда-нибудь этот выбор станет по-настоящему трудным, если мы начнем колебаться, значит, машина обрела моральный статус личности.
Пока мы далеки от этого. Но технологии уже здесь. В Японии и США активно используются роботы вроде PARO — милого механического тюленя, который помогает пожилым людям с деменцией, или ElliQ — болтливого настольного помощника, который скрашивает одиночество. Они действительно работают: улучшают настроение, снижают стресс. Но их использование рождает пугающие вопросы. Не станет ли это заменой живого человеческого общения? Не приведет ли к стигматизации тех, кому вместо внука подарили робота?
Еще более серьезная проблема — автономные хирургические системы. Da Vinci уже ассистирует врачам, но в будущем такие роботы смогут оперировать сами. Кто будет нести ответственность, если что-то пойдет не так? Хирург, наблюдатель, программист? И что делать с принципом равенства доступа, если такая высокотехнологичная помощь будет стоить миллионы и окажется доступной лишь избранным?
Алексей Антипов напоминает и о принципиальных философских возражениях. Самый известный аргумент — «китайская комната» Джона Сёрла. Он утверждает, что даже если машина идеально подбирает слова, это не значит, что она понимает их смысл. Она просто манипулирует символами по заданной программе. Другой мыслитель, Хьюберт Дрейфус, указывал на отсутствие у машин тела и эмоций. Мораль, по его мнению, рождается из нашего физического опыта, из способности чувствовать боль, радость и сопереживание. У компьютера нет тела, а значит, нет и подлинного понимания добра и зла.
Наконец, есть риск, который антропологи называют «эрозией культурных навыков». Когда-то мы умели ориентироваться по звездам и писать длинные письма от руки, а сегодня без навигатора не можем найти дорогу. Так и с моралью: если мы переложим все сложные решения на ИИ, не атрофируется ли наша собственная способность к состраданию, рефлексии и ответственности?
Итог размышлений Алексея Антипова таков: моральный тест Тьюринга — это полезный инструмент для проверки безопасности и «приличий» искусственного интеллекта. Он помогает убедиться, что робот-сиделка не нагрубит старику, а хирургическая система не совершит фатальной ошибки. Но доказывать наличие души, совести или подлинной моральной субъектности этот тест не может. Мораль пока остается «слишком человеческим» делом. И, возможно, именно в этом и состоит наша главная задача в эпоху технологий — не утратить человеческое в погоне за искусственным совершенством.
Исследование опубликовано в журнале «Концепт: философия, религия, культура»


