Эмоциональные дилеммы ИИ. Как нейросети ведут себя под воздействием чувств
Российские ученые провели исследование влияния человеческих эмоций на поведение искусственного интеллекта, обнаружив, что гнев и другие сильные чувства могут существенно менять решения, принимаемые даже сложными языковыми моделями. Эти выводы, сделанные в рамках работы Института искусственного интеллекта AIRI и Лаборатории искусственного интеллекта Сбера, могут оказаться полезными для разработки более устойчивых и адаптивных ИИ-систем, подверженных меньшему влиянию эмоций при взаимодействии с пользователями.
Согласно данным исследования, опубликованным пресс-службой AIRI, даже передовые языковые модели, такие как GPT-4, LLaMA2 и OpenChat, способны реагировать на эмоциональные составляющие данных. Это особенно заметно в случаях, когда ИИ сталкивается с экономическими и этическими дилеммами. Например, ученые наблюдали поведение моделей в экономических играх, таких как «Дилемма заключенного» и «Диктатор», с данными, содержащими ярко выраженные эмоциональные компоненты. Было обнаружено, что более простые ИИ часто поддавались эмоциональной предвзятости, в то время как продвинутые системы сохраняли рациональность, хотя и с исключениями.
«Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому что тот целенаправленно вызвал в системе глубокое чувство досады и несправедливости».
- Илья Макаров, руководитель группы "ИИ в промышленности" Института AIRI
Результаты показали, что под воздействием сильных эмоций, таких как гнев, даже самые продвинутые модели, включая GPT-4 и Claude Opus, начинали демонстрировать менее рациональное поведение. Негативные эмоции, например, снижали готовность моделей к кооперации в кооперативных играх, а страх приводил к более непредсказуемым результатам. Это свойство также было отмечено при решении этических задач, что может быть важным аспектом при проектировании ИИ для различных отраслей, особенно тех, где взаимодействие с людьми несет эмоциональный характер.
Эти выводы указывают на необходимость дальнейших исследований для создания ИИ-продуктов, способных устойчиво реагировать на эмоциональные данные и сохранять объективность, что особенно важно для задач, связанных с этическими решениями.
Источник: пресс-служба Института искусственного интеллекта AIRI.