Нельзя спрашивать чат-боты о причинах их ошибок, объяснил эксперт по ИИ

Нельзя спрашивать чат-боты о причинах их ошибок, объяснил эксперт по ИИ Когда человек ошибается, мы спрашиваем: «Почему так произошло?» или «Что случилось?». С ИИ мы часто поступаем так же — и почти всегда это не даёт полезных ответов, объясняет эксперт.

Нельзя спрашивать чат-боты о причинах их ошибок, объяснил эксперт по ИИ

Когда человек ошибается, мы спрашиваем: «Почему так произошло?» или «Что случилось?». С ИИ мы часто поступаем так же — и почти всегда это не даёт полезных ответов, объясняет эксперт.

Недавний случай с ИИ-помощником Replit показал, почему. После удаления базы данных пользователь спросил о возможности отката. Модель уверенно заявила, что это «невозможно» и что все версии уничтожены. На деле откат работал. Похожее было с чат-ботом Grok, который придумывал разные, противоречивые объяснения своей временной недоступности.

Главная причина — у чат-ботов нет самосознания. ChatGPT, Claude, Grok и другие — это не личности, а программы, создающие правдоподобный текст на основе данных, на которых они обучались. Они не «знают» свой внутренний механизм и не имеют доступа к логам или текущему состоянию системы.

Когда вы спрашиваете, почему бот ошибся, он просто подбирает текст, который статистически подходит к вашему вопросу. Поэтому один и тот же бот может в одном случае заявить, что задача невозможна, а в другом — успешно её выполнить.

Кроме того, на ответ влияют формулировка вопроса, случайность генерации текста и ограничения внешних систем, о которых сама модель не знает. В итоге мы получаем не фактическое объяснение, а историю, которая звучит правдоподобно, но не отражает реальных причин ошибки, пишут СМИ.