Имитация правды: почему не стоит подражать друзьям в соцсетях

Имитация правды: почему не стоит подражать друзьям в соцсетях Стремление социальных сетей удержать вас на своих платформах, противоречит тому, как эволюция научила нас перенимать знания друг от друга. Ежедневное взаимодействие людей с онлайн-алгоритмами, как мы выяснили с коллегами, влияет на социальное обучение, и это приводит к негативным последствиям, включая искаженное восприятие окружающего общества, конфликты и распространение дезинформации. Люди всё чаще взаимодействуют друг с другом через
Сообщение Имитация правды: почему не стоит подражать друзьям в соцсетях появились сначала на Идеономика – Умные о главном.

Имитация правды: почему не стоит подражать друзьям в соцсетях

Стремление социальных сетей удержать вас на своих платформах, противоречит тому, как эволюция научила нас перенимать знания друг от друга.

Ежедневное взаимодействие людей с онлайн-алгоритмами, как мы выяснили с коллегами, влияет на социальное обучение, и это приводит к негативным последствиям, включая искаженное восприятие окружающего общества, конфликты и распространение дезинформации. Люди всё чаще взаимодействуют друг с другом через социальные сети, где поток предлагаемой им информации контролируется алгоритмами. Именно они частично определяют, какие сообщения, от каких людей и с какими идеями увидят пользователи.

На платформах социальных сетей алгоритмы в основном предназначены для усиления информации, поддерживающей вовлеченность: они подталкивают людей кликать контент и возвращаться на платформу. Совместно с коллегами мы нашли доказательства того, что побочным эффектом этого подхода является усиление алгоритмами социально-обучающей информации. Мы называем ее PRIME-информацией, связанной с престижностью (PRestigious), групповой принадлежностью (In-group), моральной (Moral) и эмоциональной (Emotional) окраской.

Склонность ориентироваться на PRIME-информацию  в нашем эволюционном прошлом приносила большую пользу: учиться у людей, обладающих престижем и авторитетностью, было целесообразно, потому что они демонстрировали успех в определенном деле, и их поведение стоило копировать. Обращать внимание на людей, нарушающих моральные нормы, тоже было целесообразно, потому что наказуемость подобных нарушений помогала сообществу в сотрудничестве.

Но что происходит, когда PRIME-информация усиливается алгоритмами и некоторые люди используют эту особенность для самопродвижения? Престиж становится плохим сигналом успеха, потому что в социальных сетях его можно имитировать. А новостные ленты переполнены негативно окрашенными и апеллирующими к этике сообщениями.

Взаимодействие человеческой психологии и алгоритмов приводит к дисфункции, поскольку социальное обучение нацелено на сотрудничество и решение проблем, а алгоритмы социальных сетей – на повышение вовлеченности. Мы называем это несоответствие функциональным рассогласованием.

Почему это важно

Одним из важнейших последствий функционального рассогласования в алгоритмически-опосредованном социальном обучении является то, что у людей начинает формироваться искаженное восприятие общества. Например, как показывают недавние исследования, выборочное усиление алгоритмами более радикальных политических взглядов приводит к тому, люди начинают думать, что различие между «своими» и «чужими» группами более значительно, чем есть на самом деле. Такая «ложная поляризация» может стать серьезной причиной углубления политического конфликта. 

Функциональное рассогласование может привести и к большему распространению дезинформации. Согласно недавнему исследованию, люди, распространяющие политическую дезинформацию, используют сообщения, эмоционально окрашенные и апеллирующие к этике, – например, посты, провоцирующие моральное возмущение, – чтобы побудить людей делиться ими еще больше. Когда алгоритмы усиливают информацию с подобной окраской, растет и распространение дезинформации.

Какие еще исследования проводятся

В целом исследования по этой теме находятся в зачаточном состоянии, но появляются новые работы, изучающие ключевые компоненты алгоритмически-опосредованного социального обучения. Некоторые из них показывают, что алгоритмы социальных сетей очевидно усиливают PRIME-информацию.

Ведет ли это к поляризации во внешнем мире – на данный момент это предмет горячих споров. Недавний эксперимент нашел доказательства того, что новостная лента Meta (запрещена в России) увеличивает поляризацию, в то же время другой эксперимент в сотрудничестве с этой компанией не обнаружил доказательств роста поляризации из-за влияния ее алгоритмических особенностей.

Чтобы наиболее полно осознать результаты взаимодействия людей и алгоритмов в петлях обратной связи социального обучения, нужны дополнительные исследования. У компаний, занимающихся социальными сетями, есть значительная часть необходимых данных, и, полагаю, они должны быть предоставлены ученым, но с учетом этических вопросов, таких как конфиденциальность.

Сообщение Имитация правды: почему не стоит подражать друзьям в соцсетях появились сначала на Идеономика – Умные о главном.