Большие языковые модели (LLM), питающие ChatGPT и Gemini, стали частью повседневной жизни миллионов. Мы делимся с ними личными проблемами, просим совета и даже используем как психолога. Но задумываемся ли мы, какую цену платим за это удобство?
Исследователи из ETH Zurich впервые доказали: по истории чатов с ChatGPT можно с высокой точностью определить личностные черты человека. Их работа — тревожный сигнал о новой эре цифрового профилирования.
Как устроен эксперимент
Ученые собрали 62 000 чатов от 668 добровольцев. Параллельно каждый участник прошел стандартный психологический тест «Большая пятерка» (OCEAN), оценивающий экстраверсию, доброжелательность, добросовестность, невротизм и открытость опыту.
Затем исследователи обучили модель ИИ предсказывать эти черты по тексту диалогов. Результат поразил: для некоторых параметров, особенно экстраверсии и невротизма, точность предсказаний была сопоставима с результатами профессионального тестирования.
«Наша главная цель заключалась в том, чтобы количественно оценить, каким образом и в какой степени персональные данные могут быть получены из того, как люди взаимодействуют с системами на основе LLM», — пояснил старший автор работы Ноэ Зуфферей.
Тема разговора — ключ к личности
Самое интересное открытие: тип чата напрямую влияет на то, какие черты раскрываются точнее. Те, кто обсуждает с ИИ отношения, «светят» свою экстраверсию. Разговоры о религии выдают уровень добросовестности. Даже обычные, неличные диалоги содержат скрытые сигналы, позволяющие составить психологический портрет.
Чем больше чатов — тем опаснее
Исследователи выявили прямую зависимость: чем активнее человек использует ChatGPT, тем легче модели определить его характер. Это создает угрозу массового наблюдения и манипуляции.
«Некоторые компании и правительства даже напрямую стремятся к этому, — предупреждает Зуфферей. — Агентов ИИ можно использовать для масштабных пропагандистских кампаний с персонализированным воздействием».
Особенно уязвимы те, кто склонен к «когнитивной капитуляции» — полагается на ИИ вместо собственных мыслей.
Что делать?
Авторы не просто констатируют проблему, но и предлагают пути решения. Главный — разработка локальных фильтров конфиденциальности, которые будут «чистить» данные еще до отправки ИИ-агенту. Следующий шаг команды — создание инструментов, позволяющих пользователю контролировать, какая информация о его личности становится доступна алгоритмам.
Это исследование — первый звонок. Мы привыкли считать ChatGPT безобидным помощником, но он может оказаться идеальным инструментом для психологического профилирования. Вопрос в том, кто и как этим воспользуется.
Итоги работы опубликованы на сервере препринтов arXiv.
Изображение: techxplore.com


