Искусственный интеллект захватывает мир, но доверять ему медицинские вопросы пока рано. Международная группа ученых протестировала популярные чат-боты и опубликовала тревожные результаты. Оказалось, что в половине случаев ИИ выдает советы сомнительного или прямо опасного качества, сообщает ТАСС.
Эксперимент был прост: пяти известным моделям — ChatGPT, Grok, Gemini, DeepSeek и Meta AI (она принадлежит компании Meta, признанной в России экстремистской) — задали по 10 открытых вопросов по пяти медицинским темам. Два независимых эксперта оценили ответы, разделив их на три категории: полностью корректные, частично сомнительные и крайне проблематичные.
Итог разочаровал: 49,6% ответов оказались ненадежными (30% — с оговорками, 19,6% — опасные). Различия между ботами минимальны, но Grok выделился в худшую сторону, генерируя больше всего рискованных рекомендаций. При этом все модели отвечали уверенно, без колебаний. Из 250 вопросов лишь на два (0,8%) ИИ отказался отвечать — оба раза это был Meta AI.
Ученые подчеркивают особую опасность: медицина и здоровье — сферы, где ложная информация может нанести реальный вред. Чат-боты, выдавая авторитетные советы без проверки, усиливают риск дезинформации. Авторы предупреждают: без просветительских кампаний и строгого контроля использование ИИ в здоровье может привести к массовому распространению ошибок.
Вывод исследования однозначен: современные чат-боты не готовы заменить профессиональную медицинскую консультацию.
Результаты работы опубликованы в журнале BMJ Open.
Изображение: фрипик


