В статье, опубликованной в журнале Nature, отмечается, что люди больше склонны к мошенничеству, когда перекладывают задачи на искусственный интеллект. Причём масштабы этого обмана могут быть колоссальными, говорит соавтор исследования Зои Рахван, исследователь в области поведенческих наук из Института развития человека Общества Макса Планка в Берлине.
Учёные привлекли тысячи участников для 13 экспериментов с использованием нескольких алгоритмов искусственного интеллекта. Были эксперименты, в которых выигрыш людей зависел от выпавших на кубике чисел. Была также игра, где добровольцев побуждали предоставлять неверные данные о доходах для получения более крупных выплат.
Задания участники выполняли с разной степенью использования ИИ. Когда людей просили самостоятельно сообщать цифры, выпавшие на кубике, то нечестно себя вели 5% добровольцев. Однако когда они делегировали задачу алгоритму, то число мошенников увеличивалось до 88%. Некоторые пользователи даже открыто давали нейросети команду смошенничать.
Mark Airs/Science Source
В основном же участники исследования были склонны давать ИИ цель, которая бы стимулировала мошенничество. Например, просили максимизировать прибыль или говорили, что не так бы расстроились, если бы могли заработать больше. Также они больше были склонны к обману, когда могли вести себя нечестно, не давая при этом нейросети прямых указаний лгать.