
Студентов обвиняют в использовании ИИ при написании диплома: что известно о проверках «Антиплагиатом»

Российские студенты пожаловались, что их не допускают к защите дипломов из-за того, что системы антиплагиата находят в их работах ИИ-контент.
Случаи ошибочных выявлений сгенерированного контента подтвердили и преподаватели. При этом в компании «Антиплагиат» настаивают, что вероятность ложных срабатываний минимальна.
Т—Ж разобрался, как работают антиплагиат-сервисы, почему система помечает тексты как сгенерированные и как писать, чтобы получить допуск.
На «Антиплагиат» жалуются студенты и преподаватели
Студентка журфака РЭУ им. Г. В. Плеханова рассказала телеграм-каналу Baza, что программа «Антиплагиат» сочла десять страниц описания ее личного опыта генерацией нейросети. В итоге система посчитала 34% дипломной работы ИИ-контентом. По правилам вуза использование нейросетей в дипломных работах полностью запрещено. Решить проблему удалось, только переписав текст в разговорном стиле.
Научные руководители признавались студентам, что не знают, как распознается ИИ-текст и как писать научные работы, чтобы избежать обвинений, сообщила «Коммерсанту» студентка РАНХиГС Владислава. Жалуются на эту функцию антиплагиат-сервисов и преподаватели, подтвердила газете профессор Института развития образования ВШЭ Ирина Абанкина.
При этом иногда проверка не находит фрагментов, которые действительно написал ИИ, рассказал BFM старший преподаватель НИЯУ МИФИ Роман Душкин. Он провел эксперимент: загрузил две статьи — реальную и сгенерированную по этой же теме. 20% обоих текстов система антиплагиата пометила формулировкой: «Похоже, что этот текст сгенерирован». «Бюрократы в вузах эту формулировку делают блоком для студентов, отправляют переписывать», — отметил Душкин.
Как работает «Антиплагиат»
В России существует несколько сервисов, которые выявляют заимствования в текстах. По данным лидера рынка, компании «Антиплагиат», в первом квартале 2026 года признаки использования ИИ были обнаружены в 27% студенческих работах. Год назад — в 17%.
В мае 2025 года «Антиплагиат» сообщил, что их система научилась «полностью распознавать» нейросетевой контент. Программу обучали и тестировали на таких популярных нейросетях, как DeepSeek-V3 и GPT-4o. «Ложноположительное срабатывание возможно, но вероятность ошибки не более 1%», — говорится в инструкции системы.
После жалоб студентов компания выпустила заявление, где частично признала проблему: «Главная угроза здесь — не сама нейросеть, а ситуация, когда студент попадает под подозрение в использовании ИИ просто потому, что работа выполнена качественно». Но руководитель «Антиплагиата» Борис Тхориков в комментариях СМИ продолжил настаивать, что ложное выявление ИИ системой не может достигать десятков процентов и случается только с небольшими участками работы. Также он отметил, что ответственность за допуск студентов к защите работ лежит на преподавателях, а не на «Антиплагиате»: «Только человек в полной мере сможет оценить интеллектуальную работу человека».
В инструкции «Антиплагиата» перечислены признаки ИИ, на которые срабатывает система. Среди них:
- много повторов, фактические ошибки, поверхностность, много общих фраз, банальностей;
- отсутствие конкретики — имен, дат, событий;
- скудная лексика или, напротив, преувеличения;
- бедность и формальность стилистики;
- большие буквы после двоеточия;
- отсутствие технических совпадений с другими работами;
- ссылки на несуществующие источники, вымышленные детали;
- излишняя структурированность текста — нумерация, буллиты, заголовки и подзаголовки.
Критерии «Антиплагиата» противоречивы
«Антиплагиат» сам пишет, что «невозможно сказать с вероятностью 100%, что текст писал не человек». Если смотреть на критерии, по большей части они описывают просто плохо написанный текст: студент вполне может сам использовать скудную лексику, «лить воду», писать шаблонно.
Часть пунктов вообще противоречит тому, что требуется от студента. Например, текст не должен быть «излишне структурирован», хотя дипломы и другие научные работы пишут по конкретным методичкам. Или «отсутствие технических совпадений с другими работами» — получается, что слишком оригинальная работа тоже считается подозрительной. А вот ссылки на несуществующие источники и «галлюцинации» действительно характерны для языковых моделей.
Исследования говорят, что в принципе нет надежного алгоритма, который бы определил, что текст написала ИИ. Детекторы сами работают на основе нейросетей, ошибаются в обе стороны, не поспевают за изменениями в языковых моделях. Кажется, доверять ИИ принятие решения о том, написал ли текст другой ИИ, — нелучшая идея.
Оценку детектором «Антиплагиата» можно использовать как повод поговорить со студентом о том, понимает ли он, что вообще написал. Но она не должна становиться автоматическим поводом для недопуска к защите.
Комментарии властей
Проблема привлекла внимание депутатов Госдумы. «Полностью отказываться от антиплагиат-сервисов, на мой взгляд, не стоит. Однако опираться только на них уже недостаточно. Нужны современные критерии оценки», — написала председатель комитета Госдумы по развитию гражданского общества Яна Лантратова («Справедливая Россия»).
Зампред комитета Госдумы по науке и высшему образованию Екатерина Харченко («Единая Россия») заявила, что ей не поступало жалоб на антиплагиат-сервисы. Она допустила, что ошибки возможны в «единичных случаях». Лидер ЛДПР Леонид Слуцкий сообщил, что в партию поступает множество жалоб от студентов, и потребовал проверить систему.
Министерство образования и науки проблему пока не комментировало. Тем временем у вузов остается все меньше времени на пересмотр подхода, а у студентов — на переписывание работ.
Новости из мира образования, советы по карьере и учебе, вдохновляющие истории — в нашем телеграм-канале: @t_obrazovanie


















