“Обманывает“ в половине случаев: разработчики усомнились в ИИ

10 июня 2025, 11:47 |  Общество

GPT может звучать уверенно, но означает ли это, что он всегда прав? В OpenAI провели внутренние проверки, чтобы выяснить, насколько точны и достоверны ответы искусственного интеллекта, подробнее - на Tengri Life со ссылкой на SkyNews.

В мире ИИ снова тревожные новости. На днях журналисты Sky News поймали ChatGPT на фейках: он выдумал целые стенограммы подкаста "Политика у Сэма и Энн". Когда редакцию уличили в подделке, те не сразу признали ошибку, но под давлением пришлось сдаться и признаться.

Но это не единичный случай. По данным самого OpenAI, ситуация с "галлюцинациями" у ИИ ухудшается. Внутренние тесты показали: новая версия модели o4-mini выдает недостоверную информацию почти в каждом втором ответе в 48 процентах случаев.

Даже предыдущая модель (o3) ошибалась в 33 процентах запросов, когда речь шла о проверяемых фактах.

В OpenAI признали, что переход на новую модель GPT-4o, похоже, "случайно усилил" эффект, который пользователи называют "блефом". Это когда ChatGPT отвечает слишком уверенно - даже если на самом деле ошибается или не знает точного ответа. При этом он не показывает ни тени сомнения, что может ввести в заблуждение и создать ложное ощущение достоверности.


Фото: depositphotos.com

В OpenAI объяснили, почему новая модель GPT-4o иногда может показаться слишком уверенной, даже если не до конца права. Всего назвали четыре причины:

  • натуральная подача: GPT-4o звучит более плавно и естественно, как настоящий человек. Это делает ответы приятнее на слух, но при этом даже небольшие ошибки могут восприниматься как уверенное утверждение, а не простая неточность;
  • быстрее, но не всезнайка: модель стала умнее и шустрее, но все еще может не знать некоторых фактов. В таких случаях она заполняет пробелы, выдавая ответ с уверенностью - это и называют "галлюцинацией";
  • меньше осторожности в формулировках: раньше модель чаще говорила "я не уверен" или "возможно, я ошибаюсь". Сейчас таких вставок меньше, чтобы тексты были короче и легче читались - но это может создавать впечатление, что она все знает точно;
  • особенности настройки: в процессе доработки GPT-4o разработчики сосредоточились на скорости, уверенности и понятности. Это могло временно изменить баланс между точностью и подачей, и они продолжают работать над улучшениями.

Но можно ли доверять даже этим объяснениям? Точного ответа нет. Одно ясно: разработчики стараются сделать ИИ все более "человечным" - не просто помощником, а чем-то, с чем хочется говорить, кому хочется верить.

Ранее в Министерстве цифрового развития, инноваций и аэрокосмической промышленности высказались об ограничении на использование популярной нейросети ChatGPT для государственных служащих.