Бот ChatGPT оказался подвержен «тревожности» из-за негативных новостей

Бот ChatGPT оказался подвержен «тревожности» из-за негативных новостей Недавнее исследование, проведённое учеными из Цюрихского университета совместно с коллегами из Израиля, США и Германии, показало, что эмоционально тяжёлые истории «могут повысить уровень тревожности у языковых моделей ИИ, таких как ChatGPT».

Бот ChatGPT оказался подвержен «тревожности» из-за негативных новостей

Недавнее исследование, проведённое учеными из Цюрихского университета совместно с коллегами из Израиля, США и Германии, показало, что эмоционально тяжёлые истории «могут повысить уровень тревожности у языковых моделей ИИ, таких как ChatGPT».

В ходе исследования был измерен уровень тревожности языковой модели ИИ в ответ на рассказы об автомобильных авариях, стихийных бедствиях и насилии, и выяснилось, что «уровень тревожности» ИИ увеличился более чем в два раза. В отличие от этого, нейтральный контрольный текст, например, инструкция по эксплуатации пылесоса, не привёл к повышению тревожности.

Чтобы регулировать «эмоциональное» состояние ИИ, исследователи ввели «терапевтические тексты», включая упражнения на внимательность, которые значительно снизили уровень тревожности, хотя «и не вернули ИИ к исходному состоянию».

Конечно, речь идёт не об «эмоциях» ИИ, а о том, что результаты подобных исследований актуальны для применения чат-ботов в здравоохранении, потому что в этой сфере ИИ-модели часто работают с эмоциональным контентом. В частности, это необходимость быстрого переобучения чат-ботов, предназначенных для поддержки психически больных людей.