Обычный запрос в нейросеть обернулся для 60-летнего мужчины шокирующими последствиями. Он лишь хотел найти способ питаться без соли, но вместо этого оказался в психиатрической больнице. История, опубликованная в одном из ведущих медицинских журналов, показывает, что советы искусственного интеллекта могут быть не просто бесполезными, но и опасными для жизни.
Когда житель США решил поэкспериментировать со своим рационом, он обратился не к врачу, а к искусственному интеллекту. Цель казалась простой — составить меню без поваренной соли. Однако полученный от нейросети ответ поставил на карту не только его здоровье, но и психическое благополучие.
Алгоритм предложил заменить хлорид натрия на бромид. На первый взгляд совет показался безобидным, но регулярный приём этого вещества способен вызвать бромизм — хроническое отравление соединениями брома. Среди симптомов — вялость, ухудшение памяти, высыпания на коже и расстройства нервной системы.
Спустя некоторое время мужчина начал испытывать сильную жажду, но категорически отказывался пить воду, которую ему предлагали. Паранойя дошла до того, что он был уверен: сосед пытается его отравить. В итоге пенсионера доставили в отделение неотложной помощи, а затем — в психиатрическую клинику.
«Я дистиллировал воду дома и следил за каждым продуктом, но всё вокруг казалось источником опасности»
— Имя скрыто, пациент
Авторы исследования из Университета Вашингтона отметили, что, судя по времени событий, мужчина мог консультироваться с ChatGPT 3.5 или 4.0. Эта история стала ещё одним доказательством того, что бесконтрольное следование советам искусственного интеллекта может привести к непредсказуемым и трагическим последствиям.
Источник: Annals of Internal Medicine.


