Meta* сталкивается с новым вниманием к своим утверждениям о том, что Facebook* «не способствует политической поляризации». Журнал Science выразил сомнения в отношении значимости одного из исследований, на которое ссылается технологический гигант для подтверждения своей позиции.
В статье, опубликованной в четверг, Science предположил, что экстренные меры Meta* по смягчению разжигающего политического контента после выборов 2020 года могли исказить результаты исследования, опубликованного в июле 2023 года.
Редакция была вызвана критическим письмом, которое поставило под сомнение надежность данных, предоставленных Meta*, собранных в период, когда компания изменила свои алгоритмы для снижения дезинформации и политических призывов. Критики утверждают, что эти изменения помешали исследованию точно оценить алгоритмы Facebook* в нормальных условиях.
Хотя оригинальное исследование пришло к выводу, что отключение алгоритмической сортировки контента не снизило поляризацию, оно отметило ограничения своей применимости к более широким эффектам социальных медиа.