ИИ не поможет. Новое исследование: алгоритмам нельзя доверять при выявлении суицидальных настроений

ИИ не поможет. Новое исследование: алгоритмам нельзя доверять при выявлении суицидальных настроений

Новое исследование, представленное в журнале PLOS Medicine Мэтью Спитталом и его коллегами из Мельбурнского университета, демонстрирует, что точность алгоритмов машинного обучения в прогнозировании суицидальных наклонностей недостаточна для эффективного скрининга или определения приоритетности вмешательств для лиц, находящихся в зоне риска.

Несмотря на разработку множества шкал оценки риска за последние полвека, направленных на выявление пациентов с повышенной вероятностью суицида или самоповреждений, их прогностическая точность оставалась низкой. Однако разработка методов машинного обучения, использующих данные электронных медицинских карт, вновь стимулировала исследования в области создания алгоритмов для прогнозирования суицидов и самоповреждений.

В рамках исследования был проведен системный обзор и метаанализ 53 предыдущих работ, в которых применялись алгоритмы машинного обучения для прогнозирования суицидов, самоповреждений или их комбинации. Общая выборка исследований охватила более 35 миллионов медицинских карт и около 250 000 случаев суицидальных попыток и самоповреждений, потребовавших госпитализации.

Результаты показали, что алгоритмы обладают умеренной чувствительностью и высокой специфичностью, что означает их способность точно определять людей, не склонных к самоповреждениям или самоубийству. Хотя алгоритмы хорошо идентифицируют лиц, которые вряд ли повторно обратятся в клинику с подобными проблемами, они недостаточно эффективно выявляют тех, кто это сделает.

Важно отметить, что алгоритмы ошибочно относили к группе низкого риска более половины тех, кто впоследствии обращался за медицинской помощью в связи с самоповреждениями или суицидальными попытками. Среди лиц, отнесенных к категории высокого риска, лишь в 6% случаев произошел суицид, и менее 20% повторно обращались в клинику из-за самоповреждений.

«Мы обнаружили, что прогностические характеристики алгоритмов машинного обучения оказались неудовлетворительными и не превосходят традиционные шкалы оценки риска», — отмечают авторы.

Они также подчеркивают недостаточное качество исследований в данной области и высокий риск систематических ошибок.

Авторы заключают, что в настоящее время нет достаточных оснований для изменения существующих клинических рекомендаций. Несмотря на растущий интерес к применению искусственного интеллекта и машинного обучения для точного выявления пациентов с высоким риском суицида, текущие алгоритмы не позволяют надежно прогнозировать летальный исход или повторные обращения, а также демонстрируют высокую частоту ложноположительных результатов.

Изображение: фрипик

Инновационный метод. Новый подход удешевит и упростит процесс металлизации технической керамики
Практически амбидекстры. Исследователи узнали, как осьминоги управляют своими щупальцами