
«Не признается, что не знает ответа»: 8 распространенных ошибок нейросетей

Искусственный интеллект стремительно развивается, но его возможности все еще ограничены.
Читатели Т—Ж рассказали, с чем, по их мнению, ИИ до сих пор справляется неудачно. В этой подборке — восемь примеров, когда нейросети могут подвести.
Это комментарии читателей из Сообщества. Собраны в один материал, бережно отредактированы и оформлены по стандартам редакции
Неточно генерируют изображения
«Шедеврум» плохо рисует группы людей. Все еще полно кривых лиц, шести- или семипалых рук и прочего.
Также он не понимает некоторые запросы. Например, когда ради эксперимента задаешь нарисовать многодетную семью из СССР, он часто рисует мужчин и мальчиков в военной форме, причем непонятно какого звания и страны. Девочек и девушек тоже рисует — или в ситцевых платьях, или в военной форме, а маму — в вечернем платье в пол. Мальчики часто бывают в юбочках или в одном гольфе, у детей может быть три ноги.
Запрашивала рисовку оркестра — там такой цирк вышел… Я уж не говорю, что смычки просто пропадают в глубине тел музыкантов.
В целом то, что рисуют наши нейросети, сильно отличается от того, что рисуют зарубежные. Там все на порядок лучше. Очень надеюсь, наши догонят побыстрее.
«Шедеврум» рисует что-то прямо очень далекое от описания. Причем задается очень четкое ТЗ.
При создании рисунков почти все нейросети могут путать символику. Как-то генерировала картинку для поздравления с 23 Февраля, а там символика вообще не подходящая.
Не всегда понимают заданную роль
ChatGPT не справляется с функцией психолога. Задаешь пару вопросов — да, структурированная и системная информация, хоть и сжатая.
При последующих запросах все по кругу: одни и те же советы и комментарии, хотя задачи и вопросы разные. Не советую тем, кому нужно всестороннее рассмотрение вопроса с выработкой программы действий, исходя из реальных вводных.
Не проверяют или выдумывают информацию
Использую DeepSeek — во многом довольна, но с рецептами не складывается. Он ошибается в последовательности и времени готовки. Например, предлагал тушить баклажан 40 минут. Когда я указала на то, что он так в кашу превратится, DeepSeek согласился и изменил время и очередность приготовления.
Мне DeepSeek посоветовал десять классных по описанию русскоязычных подкастов на тему одиночных путешествий. Особенно понравились предложенные им «Тихие вагоны» — о путешествиях по железной дороге. Стоит ли говорить, что большая часть подкастов была выдумана? И грустно, и смешно.
У нейросетей точно проблема с тем, чтобы отличить факт от выдумки — своей или чужой. Ни за что не признается, что не знает ответа, спокойно рассуждает о несуществующих вещах. ChatGPT как-то раз согласился со мной, что свинец прозрачный. Я специально сказала это, чтобы проверить.
ИИ периодически выдумывает несуществующую информацию и факты. Поэтому использовать данные и статистику ChatGPT без предварительного фактчекинга просто нереально.
Не запоминают нить разговора
У чат-бота сложности с памятью. Я не знаю, эта цифровая деменция из-за отечественных сервисов, предоставляющих доступ к зарубежным нейросетям, или нет. Но объем того, что помнит чат-бот, весьма ограничен.
Со всем соглашаются
Раздражает, что нейронка со всем соглашается. Говоришь ей спорный тезис, а она: «Да, такое имеет место». Какой-то новый взгляд на ситуацию мне сложно увидеть.
Плюс нейронка — ярый сторонник конформистских идей, которые приняты в массах, но в лучшем случае ни к чему хорошему не ведут.
ИИ пока не умеет в абстрактное мышление: не может придумать идею на основе ощущений, бытовых образов, не отличает один шрифт от другого. Только в общих чертах. Все, что связано с ощущением и восприятием реальности, пока мимо. А хотелось бы.
Пишут лишний код
С простым кодом нейросеть справляется хорошо, а вот с тем, что посложнее, — дает лишние функции и переменные, которые вообще не нужны и все только усложняют.
Есть проблемы с кодингом. Недавно отдал функцию на рефакторинг, Blackbox нагородил фигни. Но потом, когда я поправил промпт и создал новый чат, сервис сделал все хорошо.
Неестественно имитируют человеческие голоса
Нейросетям не очень даются голосовые интонации — вопросительные, восклицательные, шепот. Но по сравнению с тем, что было даже три года назад, все равно огромный шаг вперед.
У ИИ всегда проблемы с ударениями и паузами в нужных местах.
Не справляются со сложными задачами
Есть ряд задач, связанных с картографией — моей профессиональной деятельностью. Ни одна не решается адекватно, хотя нейросети пытаются. Например, векторизация снимка с воздуха, на котором нужно очень точно оконтурить здания, дороги, ограждения, столбы и прочее.
По-прежнему все очень плохо с техническим переводом. ChatGPT, DeepSeek — все они ничего не знают про технологию, допуски и посадки, подшипники и прочее. Даже в простых технических текстах в переводе с английского или на него несут чушь. А уж если исходник кривой и на китайском, там просто туши свет, полная ахинея.
У ChatGPT очень плохо с налоговым правом РФ. Часто люди приходят на консультацию из-за того, что ИИ дал им чудовищный анализ: например, что ИП на УСН — нерезидент, не вправе применять упрощенку и должен перейти на ОСН.
У нейросетей проблема с выдачей корректных результатов при запросе на поиск редкой информации. И да, по крайней мере, ChatGPT нужные данные просто придумывает.
Недавно нужно было изучить практику одного суда по конкретной теме, после работы с поисковиком стало ясно, что ничего близко нужного в открытом доступе нет. Зато ChatGPT с готовностью предложил четыре воображаемых дела, связанных с запросом, и не спешил признать, что это галлюцинация :)
ИИ часто не может помочь с точными задачами типа обработки больших таблиц точным однозначным способом.
Самое страшное — нейросети дают формально похожий красивый результат, никак не намекающий, что в процессе простой фильтрации, к примеру, могут появляться строки, которых в изначальных данных не было.