Нельзя спрашивать чат-боты о причинах их ошибок, объяснил эксперт по ИИ
Когда человек ошибается, мы спрашиваем: «Почему так произошло?» или «Что случилось?». С ИИ мы часто поступаем так же — и почти всегда это не даёт полезных ответов, объясняет эксперт.
Недавний случай с ИИ-помощником Replit показал, почему. После удаления базы данных пользователь спросил о возможности отката. Модель уверенно заявила, что это «невозможно» и что все версии уничтожены. На деле откат работал. Похожее было с чат-ботом Grok, который придумывал разные, противоречивые объяснения своей временной недоступности.
Главная причина — у чат-ботов нет самосознания. ChatGPT, Claude, Grok и другие — это не личности, а программы, создающие правдоподобный текст на основе данных, на которых они обучались. Они не «знают» свой внутренний механизм и не имеют доступа к логам или текущему состоянию системы.
Когда вы спрашиваете, почему бот ошибся, он просто подбирает текст, который статистически подходит к вашему вопросу. Поэтому один и тот же бот может в одном случае заявить, что задача невозможна, а в другом — успешно её выполнить.
Кроме того, на ответ влияют формулировка вопроса, случайность генерации текста и ограничения внешних систем, о которых сама модель не знает. В итоге мы получаем не фактическое объяснение, а историю, которая звучит правдоподобно, но не отражает реальных причин ошибки, пишут СМИ.
Источник Еще новости... Работу археологов и исторические находки в Троице-Сергиевой лавре показали студентам российских вузов 13.08.2025 Microsoft скоро прекратит поддержку ещё одной версии Windows 11 13.08.2025 YouTube начал тестирование ИИ-проверку возраста в США 13.08.2025 В Россию везут полноприводный Volkswagen Golf R с мотором на 333 л.с., но он дороже нового Land Cruiser Prado 250 13.08.2025 Авито создаст отдел ИИ с инвестициями в 1 млрд рублей 13.08.2025 Пористые скэффолды для имплантатов нового поколения создали в Томске 13.08.2025 Загрузить еще...