Допустим, вас признали виновным в угоне автомобиля. Вы бы предпочли, чтобы наказание определил судья или алгоритм?
Алгоритмы все чаще заменяют людей в принятии решений, начиная от найма новых сотрудников и вопросов здравоохранения и заканчивая уголовным правом. Но авторы новой статьи в Journal of Experimental Psychology отмечают: общественность все больше беспокоится о том, как именно алгоритмы принимают решения. В некоторых штатах США компании, использующие алгоритмы при приеме на работу, теперь обязаны разъяснять этапы отбора.
Однако «этот акцент на прозрачности процесса принятия алгоритмических решений, хотя и хорошо мотивирован, порождает парадокс», утверждают Андреа Бонецци и его коллеги из Нью-Йоркского университета.
Судьи, рекрутеры и врачи не обязаны объяснять каждое решение. Так почему возникает проблема с алгоритмами, которые делают то же самое? По мнению авторов, мы считаем более понятным процесс принятия решений человеком, нежели алгоритмом. Но, как утверждают исследователи, люди, делающие выбор, «часто такие же «черные ящики», как и алгоритмы, которые призваны их заменить».
Команда провела серию исследований. В первом из них группу онлайн-участников попросили рассмотреть один из трех сценариев, в которых решение принимает либо эксперт, либо алгоритм. Один из них предполагал оценку риска повторного совершения преступления; другой — ответ на вопрос, выявила ли магнитно-резонансная томография заболевание; и последний — просмотр видео-интервью для принятия решения о найме на работу. Затем участники оценили, насколько хорошо они понимают процесс, который человек или алгоритм будет использовать для принятия решения. Во всех сценариях те, кто читал о человеке, сообщили, что лучше понимают процесс, чем те, кто читал об алгоритме.
А другую группу участников сначала попросили объяснить, как человек или алгоритм на самом деле будут принимать решения. (Эта стратегия известна тем, что позволяет людям более реалистично оценить, понимают ли они какие-то моменты). У этих участников оценки «понимания» процесса были ниже, как в том, что касалось эксперта, так и в отношении алгоритма. Но значительное влияние было оказано на оценки, относящиеся к эксперту, что в некоторых случаях означало исчезновение разницы между человеком и алгоритмом. «Эти результаты показывают, что люди создают сильную иллюзию лучшего понимания человека, чем алгоритма, при принятии решений», — заключает команда.
В последующем онлайн-эксперименте некоторым участникам сообщили, что неспециалистам легко оценить риск повторного совершения преступления обвиняемым и принять решение об условно-досрочном освобождении. Это привело к ложной «иллюзии понимания» процесса у человека, но не повлияло на понимание процесса алгоритма. То есть мы думаем, что больше «понимаем» ход мысли эксперта, потому что проецируем свой подход на других людей. Не удивительно, но это помогает укрепить аргументацию команды. Как и результаты третьего эксперимента.
В нем участников попросили объяснить, что отличает их от человека-рентгенолога и от алгоритма, и это привело к снижению баллов за «понимание» рентгенолога, но не алгоритма. Команда утверждает: признавая, что сильно отличаемся от эксперта, мы не можем больше проецировать на него собственные процессы, что делает нас менее предвзятыми.
Однако есть и другие объяснения, почему мы склонны доверять признанным экспертам больше, чем алгоритмам. Путь к получению такой профессии, как судья, очень конкурентен и занимает много лет. Людям, которые многого достигли, не нужно объяснять свои решения, за них это делает авторитет, заработанный за годы карьеры. Но разве с алгоритмом не то же самое? Если бы мы видели данные, свидетельствующие об успешной практике принятия правильных решений, то испытывали бы меньше тревоги в отношении процесса и охотнее соглашались с суждениями алгоритма.
Команда утверждает, что алгоритмы «часто превосходят» людей, принимающих решения.
«Поскольку внутренняя работа современных алгоритмов часто необъяснима, то приведение непостижимых, но более точных алгоритмов к более высоким стандартам прозрачности, чем те, что применяются к менее точным человеческим аналогам, которые мы ошибочно считаем более понятными, в конечном счете оказывается непрактичным и вредным для общественного благосостояния», — заключают авторы.
Справедливо. Но оговорка «еще более точные» очень важна. Предоставление четких доказательств этого в отношении найма, здравоохранения и наказания (а также других областей, в которых алгоритмические решения влияют на людей), несомненно, сделало бы больше, чтобы убедить скептически настроенную общественность доверять алгоритмам.
Сообщение Парадокс доверия: почему людей беспокоит то, что решения принимаются алгоритмами появились сначала на Идеономика – Умные о главном.