Самый убедительный: что будет, если использовать ИИ в политических целях?

Самый убедительный: что будет, если использовать ИИ в политических целях? Сегодня языковые модели искусственного интеллекта распространяются с ошеломительной скоростью. Возможно, это лишь вопрос времени, когда они станут писать речи и политические заявления для публичных людей, а возможно, так уже происходит. В новом исследовании два профессора Стэнфордской высшей школы бизнеса изучили реакцию людей на политические призывы, генерируемые ИИ, и последствия такого использования новейших технологий. «Нас интересовало,
Сообщение Самый убедительный: что будет, если использовать ИИ в политических целях? появились сначала на Идеономика – Умные о главном.

Самый убедительный: что будет, если использовать ИИ в политических целях?

Сегодня языковые модели искусственного интеллекта распространяются с ошеломительной скоростью. Возможно, это лишь вопрос времени, когда они станут писать речи и политические заявления для публичных людей, а возможно, так уже происходит. В новом исследовании два профессора Стэнфордской высшей школы бизнеса изучили реакцию людей на политические призывы, генерируемые ИИ, и последствия такого использования новейших технологий.

«Нас интересовало, могут ли сообщения, генерируемые ИИ, быть столь же убедительными, как заявления, которые написал человек, — объясняет Робб Уиллер, профессор организационного поведения Стэнфордской высшей школы бизнеса, который изучил этот вопрос вместе с группой исследователей из Лаборатории политики и социальных изменений (которую он возглавляет) и Стэнфордского института ИИ, ориентированного на человека (HAI). — Именно это мы и обнаружили, изучив реакцию по целому ряду политических вопросов: тексты, генерируемые ИИ, примерно так же убедительны, как и тексты написанные человеком, хотя читатели не знали источника сообщения».

Закари Тормала, профессор маркетинга из Стэнфордской высшей школы бизнеса, задался другим вопросом. Если люди знают, что текст создан при помощи ИИ, то влияет ли это на их реакцию? Вместе с Луизой Лу, руководившей проектом, и Адамом Духачеком из Иллинойсского университета в Чикаго, Тормала проверил, насколько восприимчивы люди к идеям, когда они знают, что сообщение исходит от ИИ, а не от человека. Этот подход показал, что люди более открыты для восприятия противоположных политических позиций, если их представляет ИИ.

«Мы думали, что в этом контексте ИИ может порой быть эффективнее человека. Люди считают, что ИИ не стремится к убеждению, не предвзят по природе и имеет доступ к огромному объему информации, — поясняет Тормала. — Эти факторы объясняют, почему люди были восприимчивее к аргументам ИИ, даже когда те противоречили их убеждениям, как мы выяснили в ходе исследования».

По сути, Уиллер проверил реакцию на послание, а Тормала — восприятие посланника.

Аргументация ИИ

Уиллер и его коллеги провели три опроса, в которых оценивали мнение участников по ряду политических мер: запрет курения в общественных местах, контроль над оружием, налог на выбросы углекислого газа и автоматическую регистрацию избирателей. Участники читали сообщения в поддержку этих мер, созданные либо искусственным интеллектом, либо людьми. (Контрольная группа видела сообщения, не связанные с темами.) Опрос в конце исследования оценивал, изменилось ли мнение людей.

«Единственное, что отличалось, — это содержание эссе. Мы наблюдали одинаковый эффект, независимо от того, были ли они написаны человеком или ИИ», — говорит Уиллер. Наиболее сильный эффект, в частности, проявился среди людей, которые уже поддерживали эти меры: сообщения, написанные ИИ, еще больше укрепили их убежденность.

«Мы также обнаружили, что люди по-разному воспринимают призывы», — говорит Уиллер. Хотя авторство сообщений не раскрывалось, участники неизменно отмечали, что тексты, написанные людьми, убедительны за счет использования историй и личного опыта. Тексты от ИИ воспринимались убедительно благодаря логичности рассуждений и четкому изложению фактов.

Это открытие дополняет исследование Тормалы и Лу, которые обнаружили, что люди более восприимчивы к тексту, противоречащему их позициям, когда им говорят, что сообщение исходит от ИИ. Мы воспринимаем ИИ более информированным, менее предвзятым и менее склонным убеждать нас в чем-то, чем человек.

«Когда нас пытается в чем-то убедить человек, мы часто не хотим его слушать, — говорит Тормала. — Особенно если человек занимает позицию, противоположную нашей. Мы думаем, что и так знаем его мнение, что он не информирован и предвзят, и что он просто пытается нас убедить или выиграть спор. Поэтому мы чаще просто игнорируем его слова». Поэтому ИИ, с другой стороны, считается высокоинформированным и более объективным.

Лу провела серию экспериментов, которые следовали единому принципу. Участники получали сообщения по определенному политическому вопросу, противоречащему их убеждениям. Например, если они выступали за вакцинацию, то читали сообщение, в котором излагались доводы против. Все читали одно и то же сообщение, которое подготовили исследователи. Но некоторым говорили, что аргументы придуманы людьми, а другим — что их сгенерировал ИИ.

Первые два эксперимента показали, что люди более восприимчивы к контраргументам, когда считают, что их источником является ИИ. Третий эксперимент продемонстрировал большую готовность делиться и искать дополнительную информацию, когда предполагалось, что источником является ИИ. Четвертый эксперимент показал меньший уровень враждебности к противоположной стороне, когда людям говорили, что источником контраргументов является ИИ.

«Сначала мы видим, что люди, столкнувшись с сообщением от ИИ, а не от человека, более открыты к другой стороне. Они более восприимчивы к позиции оппонента. Затем мы видим, что они охотнее делятся этими идеями с другими и даже начинают иначе смотреть на другую сторону, считая ее немного более разумной, — поясняет Тормала. — Мы получили каскадный набор результатов, связанных с первоначальным выводом об открытости».

Политическая машина

Лу отмечает, что эти результаты могут стать основой для «точечных мер, помогающих справиться» с проблемой политической поляризации. Например, если компании, управляющие социальными сетями, добросовестно стремятся предоставлять потребителям более точную и сбалансированную информацию, то, если приписать авторство информации искусственному интеллекту, пользователи могут охотнее воспринять различные мнения. Это может способствовать меньшей агрессии на разность взглядов. «При масштабном применении, — считает Лу, — такой подход может стать одним из способов сдержать поляризацию».

«Наше исследование не имеет никакого отношения к точности информации», — предупреждает Тормала. Если люди более восприимчивы к сообщениям, генерируемым ИИ, независимо от их точности, это может способствовать распространению дезинформации. «Вывод не в том, что „Эй, ИИ нас спасёт“, а в том, что люди реагируют на информацию по-разному, когда думают, что она исходит от ИИ, — утверждает ученый. — Эту реакцию можно использовать во благо или во вред, в зависимости от получаемой информации».

Уиллер также отмечает ряд важных последствий полученных данных. С одной стороны, убедительный эффект ИИ был относительно невелик. Языковые модели могут повысить эффективность политических сообщений, но это влияние не особенно значительно. По словам Уиллера, сам по себе этот эффект не может «дестабилизировать общество».

С другой стороны, тот факт, что сообщения, генерируемые ИИ, укрепляли существующие убеждения людей, согласно исследованиям Уиллера, говорит о том, его использование может усилить поляризацию. Уиллер полагает, что во время промежуточных выборов в Конгресс США в 2026 году иностранные или внутренние субъекты могут использовать искусственных агентов для наводнения социальных сетей кампаниями, призванными еще больше разобщить людей.

«У нас в стране уже и так много негативных политических рассуждений, и технически не составит труда масштабировать контент, генерируемый ИИ, и усугубить ситуацию, — утверждает он. — Легко представить, как это можно использовать, чтобы поставить под угрозу и без того потрепанную демократию».

Сообщение Самый убедительный: что будет, если использовать ИИ в политических целях? появились сначала на Идеономика – Умные о главном.