Эпидемия машинных заблуждений: почему мы не можем просто списать «вранье» нейросетей на технический сбой

Эпидемия машинных заблуждений: почему мы не можем просто списать «вранье» нейросетей на технический сбой

Наверняка, вы уже просили нейросеть написать реферат или объяснить сложную тему и ловили ее на красивой, но абсолютно ложной информации? Например, она могла сослаться на научную статью несуществующего профессора или приписать известному философу слова, которые он никогда не говорил. В мире технологий это явление получило не самое научное, но очень яркое название — «галлюцинации» искусственного интеллекта.

Долгое время считалось, что это просто технический баг, побочный эффект статистической природы языковых моделей. Мол, ИИ — это просто «стохастический попугай», который механически комбинирует слова, найденные в интернете, не понимая их значения и уж тем более не претендуя на истину. Философ Александр Шевченко, д.ф.н., в.н.с. Института философии и права СО РАН в своем исследовании предлагает взглянуть на эту проблему гораздо серьезнее: он утверждает, что галлюцинации ИИ — это не безобидная болтовня, а новая форма эпистемической ошибки, то есть ошибки в самом процессе производства знания. И у этой ошибки есть серьезные социальные последствия.

Философ спорит с расхожим мнением, что раз у машины нет сознания и намерений, то и спрашивать с нее нечего. Проблема в том, что мы, люди, уже интегрировали эти системы в критически важные сферы — медицину, образование, политику. Когда ИИ выдает ложь, он делает это не робко и неуверенно, а в форме уверенного, структурированного суждения, которое функционально ничем не отличается от человеческого утверждения. Мы верим этим суждениям и действуем на их основе. А значит, закрывать глаза на «бессознательность» машины — значит игнорировать реальность.

Чтобы доказать свою точку зрения, Шевченко обращается к классической философии. Он проводит параллель с древнеиндийской школой Ньяя, где ошибка рассматривалась не как отсутствие информации, а как её активное искажение. Классический пример: человек в темноте принимает веревку за змею. У него есть контакт с объектом (чувственные данные), но дефектное восприятие приводит к ложной квалификации, и человек искренне верит в свои страх. Точно так же работает и ИИ: он получает данные (контакт), искажает их в процессе обработки, выдает ложную квалификацию (неверный факт) и делает это с полной «уверенностью» (категоричностью тона). Это не пассивное незнание, а активный дефектный акт.

Ту же логику автор находит у Иммануила Канта, который утверждал, что истина и заблуждение рождаются только в суждении, когда мы связываем одно понятие с другим. ИИ не обладает кантовским «рассудком», но структура его высказываний точно воспроизводит структуру суждения: субъект, предикат и притязание на истину. Когда нейросеть «придумывает» факт, она не фантазирует, а совершает логическую ошибку в производстве знания.

Современные философы, такие как Дэниел Деннет, предлагают относиться к сложным системам через так называемую «интенциональную установку». Проще говоря, если поведение объекта удобнее всего объяснять, приписывая ему цели и убеждения (даже если мы знаем, что у него нет сознания), то для практических целей мы можем считать его агентом. Искусственный интеллект уже сейчас ведет себя как заблуждающийся агент. Он систематически генерирует ошибки, которые имеют последствия в реальном мире, поэтому рационально объяснять их не как технический сбой, а как его ложные «убеждения».

Если принять эту точку зрения, фокус внимания смещается с технической проблемы «как починить алгоритм» на более глубокий вопрос об эпистемической ответственности. Получается, что ответственность за машинные заблуждения распределена. Она лежит на разработчиках, которые выстраивают архитектуру, порождающую систематические искажения. Она лежит на регуляторах, которые допускают использование этих инструментов в чувствительных сферах. И, наконец, она лежит на нас с вами — пользователях, которые доверяют выводам ИИ, не подвергая их критике, и тем самым встраивают ложь в свою картину мира.

Таким образом, «галлюцинации» — это гораздо больше, чем просто забавный сбой. Это маркер глубоких структурных проблем в том, как мы производим и потребляем знание в эпоху алгоритмов. Признав, что ИИ не просто «не знает», а именно «ошибается» (и ошибки эти социально значимы), мы перестаем быть пассивными наблюдателями. Мы берем на себя ответственность за то, как машина меняет наше представление о реальности, и начинаем выстраивать защиту — от культуры верификации до прозрачности алгоритмов. Метафора «болтливого попугая» утешительна, но опасна: она скрывает тот факт, что мы уже доверили часть своего мышления системе, которая не думает, но очень убедительно заблуждается.

Исследование опубликовано в журнале «Respublica Literaria»

Просоциальное поведение: когда речь идет о помощи людям, собаки больше похожи на детей, чем на кошек
Неизвестные страницы жизни автора антропологической коллекции Ивана Севрюгина