Когда человек ошибается, мы спрашиваем: «Почему так произошло?» или «Что случилось?». С ИИ мы часто поступаем так же — и почти всегда это не даёт полезных ответов, объясняет эксперт.
Недавний случай с ИИ-помощником Replit показал, почему. После удаления базы данных пользователь спросил о возможности отката. Модель уверенно заявила, что это «невозможно» и что все версии уничтожены. На деле откат работал. Похожее было с чат-ботом Grok, который придумывал разные, противоречивые объяснения своей временной недоступности.
Главная причина — у чат-ботов нет самосознания. ChatGPT, Claude, Grok и другие — это не личности, а программы, создающие правдоподобный текст на основе данных, на которых они обучались. Они не «знают» свой внутренний механизм и не имеют доступа к логам или текущему состоянию системы.
Когда вы спрашиваете, почему бот ошибся, он просто подбирает текст, который статистически подходит к вашему вопросу. Поэтому один и тот же бот может в одном случае заявить, что задача невозможна, а в другом — успешно её выполнить.
Кроме того, на ответ влияют формулировка вопроса, случайность генерации текста и ограничения внешних систем, о которых сама модель не знает. В итоге мы получаем не фактическое объяснение, а историю, которая звучит правдоподобно, но не отражает реальных причин ошибки, пишут СМИ.