Используют, но молчат. Почему ученые не признаются, что при написании статей применяют нейросети?

Используют, но молчат. Почему ученые не признаются, что при написании статей применяют нейросети?

В научном сообществе растет применение инструментов генеративного искусственного интеллекта, включая языковые модели для редактирования и перевода исследовательских работ. В ответ многие издательства вводят требования об обязательном раскрытии такой помощи, стремясь сохранить прозрачность публикационного процесса. Однако, как показывает новое исследование, большинство ученых игнорируют эти правила.

Специалисты из Департамента управления информацией Пекинского университета Юнъюань Хэ и И Бу провели масштабный анализ более чем 5,2 миллионов статей, опубликованных в 5114 журналах с 2021 по 2025 год. На первом этапе они изучили редакционные политики каждого издания, классифицировав их по четырем категориям: запрещающие использование ИИ, требующие его раскрытия, допускающие открытое применение и не имеющие упоминаний об ИИ. Оказалось, что около 70% журналов уже формализовали свой подход к использованию искусственного интеллекта.

Затем ученые применили статистический метод максимального правдоподобия для анализа стиля письма в статьях. Этот подход позволяет выявлять характерные паттерны, свойственные машинному генеративному тексту, например, неестественно высокую частоту повторения определенных слов и фраз.

Результаты продемонстрировали статистически значимый рост использования ИИ при написании работ во всех научных дисциплинах и в большинстве журналов. Наиболее показательным оказался тот факт, что с 2023 года только 0,1% статей (76 из 75 172 в выборке) содержали указание на применение искусственного интеллекта, несмотря на растущее число соответствующих требований.

Исследование также выявило географические и предметные различия. Наиболее активно технологии внедряются в физических науках, а также учеными из неанглоязычных стран, таких как Китай и Бразилия.

Авторы работы предлагают несколько объяснений низкого уровня раскрытия информации. Одно из них — опасения исследователей, что упоминание об ИИ может поставить под сомнение оригинальность их труда и повредить профессиональной репутации. Другая причина — нечеткость формулировок в политиках журналов, из-за чего авторы не всегда понимают, в каких случаях отчетность обязательна. Например, использование ИИ исключительно для проверки грамматики часто не воспринимается как требующее декларации.

В заключении исследования подчеркивается, что существующие правила в значительной степени не достигают своих целей — обеспечить прозрачность и регулировать внедрение ИИ в научную коммуникацию. Ученые призывают к пересмотру этических рамок, чтобы создать условия для ответственного и открытого использования искусственного интеллекта в науке.

Исследование опубликовано в журнале PNAS.

Изображение: фрипик

Ученые узнали, с каким распространенным заболеванием помогают бороться соединения каннабиса
Соленый щит ледяной планеты: как кристаллы соли могли усилить древнее оледенение