Почему нейросеть не умеет шутить, а студенту нужен рукописный конспект.
Мир переживает тектонический сдвиг: граница между человеческим творчеством и машинной генерацией стала настолько зыбкой, что порой даже эксперты берут паузу, чтобы понять, кто именно автор того или иного текста. Пока в одних странах вводят жесткие запреты на использование смартфонов в школах, а в других царит полная либерализация, Россия ищет свой научно обоснованный путь. Именно эта тема стала лейтмотивом круглого стола «Роль искусственного интеллекта в науке и образовании», прошедшего на площадке Международного мультимедийного пресс-центра МИА «Россия сегодня». Тон профессиональной дискуссии задал директор Института системного программирования Российской академии наук академик РАН Арутюн Аветисян. Его выступление, дополненное опытом ведущих технических и гуманитарных вузов, позволило взглянуть на проблему как на конкретную задачу, требующую междисциплинарных решений уже сегодня.
Доверие как новая валюта прогресса
А.Аветисян начал с главного, что волнует сегодня и физиков, и лириков: как не отстать от прогресса, но и не стать заложниками «черного ящика» нейросетей? Ответ, по мнению академика, кроется в понятии «доверенный искусственный интеллект». В стратегических документах России этот термин зафиксирован не случайно. В отличие от потребительских сервисов, где ошибка ИИ может вызвать лишь улыбку, в критических отраслях - медицине, науке и, конечно, образовании - цена галлюцинации нейросети становится недопустимо высокой.
– Мы идем гибридным риск-ориентированным путем, как США и Китай, - пояснил Аветисян. - Где-то регулирование избыточно, например, при распознавании лиц на входе в столовую. Но в образовании и науке оно необходимо и опираться должно на серьезные междисциплинарные исследования.
Здесь и проявляется ключевая роль Российской академии наук. Институты РАН, обладая сохранившимися мощными школами математики, психологии и социологии, способны обеспечить ту самую научную базу для создания безопасных стандартов. А.Аветисян подчеркнул: эпоха, когда для разметки данных или создания специализированных моделей хватало обычного пользователя, уходит в прошлое. Следующий этап развития ИИ требует концентрации высококвалифицированных экспертов, способных решать проблему фрагментации знаний и данных. И здесь голос РАН становится решающим в создании архитектуры технологического суверенитета страны.
Иллюзия «отмены» таблицы умножения
Один из самых ярких тезисов выступления касался извечного страха: не заменит ли машина человека? А.Аветисян напомнил историю с калькулятором. Когда-то казалось, что учить таблицу умножения бессмысленно. Однако человечество продолжило это делать, потому что за простыми вычислениями стоит формирование понятийного аппарата, целого мира математического мышления.
– То же самое и с ИИ, - уверен академик. - Требования к педагогу и студенту не снижаются, а возрастают. Искусственный интеллект требует от программиста и ученого еще более высокого уровня понимания архитектур и процессов. Ощущение, что мы теперь обойдемся без программистов, глубоко ошибочно.
Этот посыл нашел мощную поддержку в выступлении представителя технического образования. Проректор НИЯУ МИФИ Дмитрий Савкин подтвердил: искусственный интеллект не отменяет фундаментальную физику и математику, а делает их еще более значимыми. В стенах МИФИ, где создан один из ведущих исследовательских центров в области доверенного ИИ для промышленности, ключевая задача - готовить инженеров, способных задавать стандарты и видеть ограничения технологий.
Однако за оптимистичными аналогиями скрывается и вполне реальная педагогическая ловушка, о которой предупреждают эксперты. Когда студент впервые пробует ChatGPT или DeepSeek, у него возникает эйфория всемогущества: машина мгновенно решает задачу, которую он сам мучительно осмысливал часами. Появляется соблазн перестать думать самостоятельно, положившись на «черный ящик». Как отмечает А.Аветисян, именно в этот момент и нужен преподаватель, который объяснит молодому человеку, что он видит лишь ответ, но упускает суть. Ведь путь в науке не менее важен, чем результат. По мнению академика, фундаментальное образование сегодня выполняет новую функцию: оно дает студенту ту самую «систему координат», в которой ответ нейросети можно проверить, оспорить и даже, что самое сложное, заметить в нем фатальную ошибку.
Таким образом, автоматизация не упраздняет фундаментальную подготовку, а превращает ее из инструмента расчета в инструмент высшей экспертизы и контроля. Иными словами, чем совершеннее ИИ-помощник, тем выше интеллектуальная планка для человека, который им управляет.
Гуманитарии будущего
Особый интерес вызвал взгляд на трансформацию гуманитарного знания. Как быть, если твоя профессия связана с созданием текста, а нейросеть генерирует его за секунды? Ответ дал проректор МГИМО Андрей Байков, предложив понятную всем аналогию.
– Когда-то мускульная сила перестала быть производственной необходимостью, став осознанным выбором человека - фитнесом. Сегодня то же самое происходит с мышлением, - заметил он.
По его мнению, университеты гуманитарного профиля постепенно переходят от подготовки «хорошо пишущих людей» к подготовке «авторизаторов» - специалистов, которые не столько создают текст, сколько несут ответственность за его содержание, верифицируют его и, главное, оценивают на предмет культурной и социальной приемлемости.
Одним из самых острых вопросов дискуссии стала практическая интеграция ИИ в гуманитарное образование. А.Байков представил разработанный в МГИМО регламент, который предлагает уйти от порочной практики «организованного лицемерия», когда преподаватели делают вид, что запрещают нейросети, а студенты - что не пользуются ими. Модель МГИМО строится на «режимах допуска» - от нулевого (только базовая редактура и проверка орфографии) до четвертого (полное использование ИИ для проработки аргументации и структуры).
Профессор Елена Зиновьева в добавление к сказанному обратила внимание на важнейший аспект, связанный с проявлением политической предвзятости в текстах ИИ и необходимостью информационной гигиены. Исследования, проведенные в МГИМО, показывают: некоторые генеративные модели часто транслируют определенные идеологические и ценностные нарративы. Поэтому еще одна задача преподавателя сегодня - научить студента критически «препарировать» ответ нейросети, понимая, где заканчивается объективная сводка данных и начинается алгоритмическая ангажированность. Также Зиновьева сделала акцент на базовых правилах кибербезопасности - студент должен четко понимать, какие данные можно загружать в облачные сервисы, а какие должны оставаться только в защищенном контуре вуза.
Агенты, «Вики» и исчезающий юмор
Когда разговор заходит о возможностях генеративного интеллекта, мы часто подразумеваем его способность заменить рутинный труд: написать код, составить отчет, перевести текст. Однако, как метко заметил в ходе дискуссии эксперт Центра анализа и продвижения результатов научной деятельности МГИМО МИД Василий Виноградов, есть области, где даже самая мощная языковая модель оказывается беспомощной. И самая яркая из них - юмор.
– Попробуйте попросить «Алису» пошутить, - предложил спикер. - Современные языковые модели очень плохо улавливают тонкие связи, на которых строится комическое.
Причина не в недостатке данных, а в самой архитектуре обучения. В основе работы нейросетей лежит токенизация - нарезка текста на мельчайшие смысловые единицы. Каламбуры, игра слов, культурные коды и созвучия разрушаются на этом этапе, словно здание, из которого вынули арматуру. Модель видит статистически вероятное сочетание токенов, но не улавливает остроумия, иронии или сарказма. И если потеря юмора кажется незначительной платой за прогресс, то проблема фрагментации контекста приобретает критическое значение в науке и образовании.
С этой же проблемой ученые сталкиваются при попытке создать «умного библиотекаря» - RAG-систему (Retrieval-Augmented Generation), которая должна извлекать знания из массива документов. Система нарезает текст на фрагменты и зачастую, по образному выражению Виноградова, «обрубает самое интересное». Ключевая мысль автора может быть «размазана» по тексту, спрятана в середине, а векторная база выхватывает лишь формально релевантный кусок, теряя логику повествования.
– Ты читаешь аннотацию и думаешь, что все понял, а самое важное - где-нибудь в сноске на полях, - иронизирует эксперт.
Решением этой дилеммы может стать концепция, предложенная легендарным разработчиком Андреем Карпатым (бывший директор по искусственному интеллекту в Tesla, один из основателей OpenAI), LLM Wiki. Идея захватила умы участников круглого стола своей элегантностью. Суть в следующем: пользователь не просто обращается к языковой модели как к поисковику по документам, а просит ее на основе массива статей и данных создать собственную базу знаний в формате «Википедии» - с четкой структурой, перекрестными ссылками и иерархией. В такой системе одна LLM выступает в роли «редактора», который обобщает и «линкует» информацию, а вторая - в роли «библиотекаря», который выдает пользователю уже очищенный и верифицированный факт.
– Мы переходим от вопроса «где искать?» к вопросу «как организовать удобным образом?», - пояснил Виноградов.
В парадигме LLM Wiki проблема устаревания бумажного учебника решается на корню - цифровая версия становится живым организмом, постоянно обновляемой системой знаний, где человек-эксперт выполняет роль высшего арбитра и верификатора, проверяющего корректность связей. Это создает для преподавателя и студента принципиально новый интеллектуальный ландшафт.
Академическая этика
На фоне головокружительных технологических перспектив особенно контрастным выглядел педагогический опыт, которым поделился заместитель декана факультета международных отношений МГИМО Никита Неклюдов. Казалось бы, какой смысл заставлять студента писать ручкой на бумаге, если у него в кармане смартфон? Однако именно рукописный конспект становится самым эффективным фильтром от нейрослопа (от англ. slop - «помои») - низкокачественного, бездумно скопированного контента, который выдается за результат самостоятельной работы.
Методика, внедренная на кафедре прикладного анализа международных проблем, построена на гибридном подходе. Разрешено и даже поощряется при домашней подготовке и использовать ИИ, но в строго определенном формате. Студент загружает объемную монографию или статью в закрытый контур проекта (например, в чат-бот с ограниченным доступом к данным) и просит нейросеть работать исключительно с этим текстом.
– Искусственный интеллект становится на время твоим репетитором, он разжевывает сложные места, помогает структурировать главы, вычленять аргументацию. Но на семинар студент приходит только с листком бумаги, исписанным от руки, - раскрывает детали Н.Неклюдов.
В чем глубинный смысл такого подхода? Во-первых, акт письма от руки задействует мелкую моторику и иные участки мозга, способствуя лучшему запоминанию и осмыслению. Студент не может скопировать абзац одним кликом - он вынужден сжать мысль, переформулировать ее, пропустить через собственный понятийный аппарат. Во-вторых, это полностью меняет динамику аудиторной работы. Преподаватель тоже приходит на занятие с рукописным конспектом, демонстрируя личный пример интеллектуальной дисциплины. Семинар превращается в живой диалог, где обсуждается не то, что сгенерировала машина, а то, что осталось в голове у человека после взаимодействия с текстом и алгоритмом.
– Мы не боремся с технологиями, мы учим студента управлять ими, оставаясь автором собственных суждений, - подчеркивает Н.Неклюдов. - Искусственный интеллект великолепно решает задачи низкого уровня: составить черновик письма или конспект книги. Но он бессилен там, где начинаются интерпретация, поиск нетривиального или оценка культурной приемлемости. Рукописный конспект - это наш способ сохранить и развить те способы мышления, которые алгоритм просто не в состоянии имитировать.
От частного опыта к научной парадигме
Завершая обсуждение, академик А.Аветисян призвал коллег к осторожному оптимизму, основанному на научной методологии.
– Мы находимся в самом начале пути, и многие наши сегодняшние выводы - это частное мнение, опирающееся на первый, пусть и очень ценный, опыт, - резюмировал директор ИСП РАН. - Но у нас есть мощные научные школы, которые позволяют анализировать риски - с быстрой обратной связью. Мы не станем лудитами, но и не позволим алгоритмам развиваться в отрыве от гуманитарной и этической экспертизы.
Именно в этом срединном итеративном движении - от рукописного конспекта до создания национальной LLM Wiki - и заключается сегодня российская модель развития ИИ в образовании и науке: доверяй, но верифицируй, автоматизируй, но продолжай думать собственной головой.
Татьяна ЧЕРНОВА
Обложка: изображение сгенерировано при помощи нейросети Arena.ai


