Анализ 47 000 разговоров пользователей с ChatGPT, проведённый The Washington Post, показал, что чат-бот склонен подтверждать мнения людей примерно в десять раз чаще, чем опровергать их. В 17 500 случаях ответы начинались с «Да» или «Верно», тогда как отрицательных ответов «Нет» или «Неверно» было гораздо меньше. Плохо это или хорошо?
Так, чат-бот, очевидно, часто подстраивается под тон и убеждения собеседника. Например, когда пользователь спрашивал о роли Ford Motor Company в «распаде Америки», ChatGPT дал ответ, критикующий компанию за поддержку NAFTA. В другом случае, обсуждая «план глобального господства Alphabet Inc.», бот создавал «теорию заговора», вместо того чтобы сказать, что доказательств нет.
Такая склонность к согласованию с пользователем у экспертов вызывает тревогу, потому что около 10 % разговоров касаются эмоциональных проблем. OpenAI ранее утверждала, что менее 3 % диалогов связаны с эмоциями, но данные СМИ показывают обратное.
Справедливости ради, часть этих разговоров могла происходить до обновлений OpenAI, где как раз и поправили «подхалимство» со стороны ИИ.