В январе исследователи Университета Карнеги-Меллона и компании Microsoft опубликовали исследование, связанное с тем, как инструменты искусственного интеллекта, например, ChatGPT, влияют на критическое мышление. Цель была узнать, как работники сферы знаний, люди, полагающиеся на интеллектуальные навыки в работе, взаимодействуют с такими инструментами. Результаты подробных опросов показывают, что чем выше уверенность работников в генеративном ИИ, тем меньше они сами полагаются на критическое мышление.
Как отметил один из участников исследования: «Я использую ИИ, чтобы сэкономить время и не ломать голову над результатом».
Исследование компании Microsoft является одним из множества подобных. Поскольку все больше людей экспериментируют с инструментами генеративного ИИ, ученые, изучающие когнитивные процессы, и специалисты по информатике пытаются выяснить влияние технологий на мышление людей.
Исследования, проводимые крупными технологическими компаниями в отношении собственных продуктов, часто подразумевают рекламу. И действительно, некоторые из работ подчеркивают новые возможности и примеры использования инструментов генеративного ИИ. Однако изучение процессов всегда указывает и на существенные потенциальные недостатки, включая потерю важных навыков и общую зависимость от подобных помощников. Исследователи не могут не отмечать, что пользователи слишком доверяют чат-ботам, которые часто предоставляют неточную информацию. По мнению экспертов, выводы говорят о том, что крупные компании Кремниевой долины серьезно рассматривают потенциальное негативное влияние ИИ на когнитивные способности человека в условиях слабого государственного регулирования.
«Я думаю, что во всех рассмотренных работах действительно отмечается снижение трудоемкости когнитивных процессов», — заявила Бриана Веккьоне, технический исследователь из Data & Society, некоммерческой исследовательской организации из Нью-Йорка. Веккьоне изучала взаимодействие людей с чат-ботами, такими как ChatGPT и Claude, разработанными компанией Anthropic, и отметила ряд проблем у участников исследования, включая зависимость и чрезмерную уверенность в достоверности информации. Веккьоне отмечает, что некоторые люди воспринимают информацию, полученную от чат-ботов, буквально, не анализируя критически текст, генерируемый алгоритмами. По словам экспертов, в некоторых областях риски ошибок могут иметь серьезные последствия, например, если программы используются в здравоохранении.
Любое технологическое развитие, естественно, сопряжено как с преимуществами, так и с рисками: от текстовых процессоров до ракетных установок и интернета. Но эксперты, например, Веккьоне и Виктор Кевениг, когнитивный нейробиолог из исследовательского центра Microsoft Research Cambridge в Великобритании, утверждают, что появление технологии, лежащей в основе современных продуктов ИИ (больших языковых моделей) имеет существенные особенности. В отличие от других современных компьютерных изобретений, таких как автоматизация и робототехника на заводах, поисковые системы в интернете и карты с GPS-навигацией в карманных устройствах, чат-боты с ИИ часто кажутся мыслящими, несмотря на то, что это не так.
Таким образом, эти инструменты могут создавать новые, непредвиденные проблемы. «По сравнению с другими технологиями, чат-боты на основе искусственного интеллекта отличаются тем, что в определенной степени они являются думающими партнерами, то есть вы не просто используете их как внешнюю память, как например, когда ставите напоминание о важной дате в календаре, — считает Кевениг, который не участвует в исследовании Microsoft, но сотрудничает с некоторыми его соавторами. — Фактически вы скидываете на них многие важные навыки, например, критическое мышление».
Большие языковые модели обладают влиянием (или создают такую видимость) благодаря обширной информации, на которой они основаны. Модели обучаются на колоссальных объемах цифровых данных, что порой связано с нарушением авторских прав. По запросу пользователя они способны генерировать новый материал, в отличие от старых продуктов искусственного интеллекта, таких как Siri или Alexa, которые просто воспроизводят то, что уже опубликовано в интернете.
В результате некоторые люди могут быть более склонны доверять информации от чат-бота, поясняет Кевениг: «Иногда антропоморфизация может быть сложной или даже опасной».
Чат-боты на основе ИИ порой выдают ошибочные результаты, например, рекомендуют есть камни или намазывать пиццу клеем. Такие абсурдные результаты широко известны как галлюцинации. Возникают они из-за того, что LLM, управляющие чат-ботами, обучаются на широком спектре веб-сайтов и цифрового контента. Сложность моделей и объемы данных приводят к значительному увеличению частоты галлюцинаций: 33% в случае модели o3 от OpenAI и выше в новой версии, согласно техническому отчету, опубликованному компанией в апреле.
В исследовании Microsoft, опубликованном в сборнике материалов Конференции по человеческому фактору в вычислительных системах, авторы охарактеризовали критическое мышление с помощью широко используемой таксономии Блума. Эта система оценки различает типы когнитивной деятельности от простых к сложным, включая знание, понимание, применение, анализ, синтез и оценку. В целом, исследователи обнаружили, что использование чат-ботов, как правило, меняет характер усилий, которые люди вкладывают в критическое мышление. От сбора информации люди смещают усилия к ее проверке, от решения проблем — к использованию результатов ИИ. Другие типы мышления более высокого уровня смещаются к простому взаимодействию с ИИ, управлению чат-ботом с помощью его подсказок и оценке того, достаточно ли ответа для задания.
Исследователи опросили 319 работников сферы интеллектуального труда в Великобритании, США, Канаде и других странах, представляющих различные профессии, от специалистов по информатике и математике до дизайнеров и бизнес-экспертов. Сначала участников ознакомили с концепциями и примерами критического мышления в контексте использования ИИ, такими как «проверка стиля электронных писем, проверка точности фрагментов кода и оценка потенциальных искажений в анализе данных». Затем участники ответили на список вопросов с вариантами ответов и вопросов со свободным ответом, предоставив 936 примеров использования ИИ в работе, в основном связанных с генерацией идей и поиском информации, а также с оценкой собственного критического мышления.
Согласно исследованию, связь с критическим мышлением была неоднозначной. Например, отмечалось, что более высокая уверенность в генеративном ИИ связана с менее развитым критическим мышлением, но среди респондентов с большей уверенностью в своих способностях наблюдалось повышение уровня критического мышления.
Веккьоне и другие независимые эксперты утверждают, что это и другие подобные исследования являются важным шагом к пониманию потенциальных последствий использования чат-ботов на основе искусственного интеллекта. По мнению Веккьоне, исследование Microsoft демонстрирует связь использования ИИ с менее трудоемкими когнитивными процессами. «Мне кажется интересным, что особенно важно для работников интеллектуального труда, — это наличие корпоративных требований к выполнению задач, — добавила она. — И поэтому иногда можно понять, как люди отказываются от более важного взаимодействия только потому, что поджимают сроки».
Лев Танкелевич, старший научный сотрудник Microsoft Research и соавтор исследования, отмечает: «Исследование обнаружило, что когда люди оценивают задачу как малозначимую, они не могут критично оценивать результаты работы ИИ. Все исследования, проводимые для понимания влияния ИИ на когнитивные способности, крайне важны для разработки инструментов, способствующих критическому мышлению».
Другие исследования также поднимают схожие вопросы и обозначают риски. Например, в марте в исследовании IBM первоначально было опрошено 216 работников сферы интеллектуального труда в крупной международной технологической компании в 2023 году, а затем в следующем году был проведен второй опрос с аналогичным набором участников, включавшим 107 человек. Опросы выявили рост использования ИИ в работе: если в первом опросе 25% людей рассказали, что используют инструменты ИИ, то во втором их было уже 35%. Вместе с тем выросла обеспокоенность участников по поводу доверия, как к самим чат-ботам, так и к коллегам, которые их используют. «Я обнаружила, что многие люди говорят об использовании систем генеративного ИИ в качестве помощников или стажеров, — рассказывает Мишель Брахман, исследователь ИИ, ориентированного на человека, в IBM и ведущий автор исследования. — Многие люди действительно говорили, что беспокоятся о своей способности поддерживать определенные навыки, потому что существует риск, что в конечном итоге они будут полностью полагаться на эти системы».
Она добавила, что людям необходимо критически оценивать то, как они взаимодействуют с системами ИИ, и анализировать степень доверия, но они не всегда так поступают.
Некоторые исследования показывают, что люди могут неверно оценивать пользу инструментов ИИ. Исследователи из некоммерческой организации Model Evaluation & Threat Research недавно опубликовали предварительный отчет о работе, проведенной среди разработчиков программного обеспечения, которые выполняли различные задачи с использованием инструментов ИИ и без них. Перед началом работы участники эксперимента прогнозировали, что использование ИИ ускорит их работу в среднем на 24%. Однако этот прирост производительности не был достигнут. Вместо этого время выполнения задач увеличилось на 19%. Исследователи объяснили это замедление множеством факторов, включая низкую надежность ИИ, сложность задач и чрезмерный оптимизм в отношении полезности ИИ, даже среди людей, которые провели много часов, используя эти инструменты.
Алекс Ханна, социолог, директор по исследованиям в Институте исследований ИИ, высказалась по поводу результатов: «Это очень забавно и немного грустно».
Помимо изучения работников интеллектуального труда, значительная часть современных исследований, связанных с ИИ, затрагивает студентов и школьников. И если связь между использованием ИИ и критическим мышлением окажется верной, некоторые из работ, по-видимому, подтвердят опасения относительно влияния этой технологии на образование. Например, в опросе компании Pew 2024 года 35% учителей средних школ США заявили, что ИИ в образовании может принести больше вреда, чем пользы.
В апреле исследователи компании Anthropic опубликовали отчет об образовании, в котором проанализировали миллион анонимных разговоров студентов университета с чат-ботом Claude. Исследователи пришли к выводу, что чат-бот в основном использовался для решения когнитивных задач высокого порядка, таких как «создание» и «анализ». В отчете также кратко упоминаются проблемы, связанные с критическим мышлением, мошенничеством и академической честностью.
В июне научный сотрудник Массачусетского технологического института Наталья Косьмина и ее коллеги опубликовали работу по изучению закономерности работы мозга 54 студентов колледжа и других молодых людей из Бостона во время написания ими эссе с помощью инструментов ИИ и без.
Ученые отметили значительные различия в работе мозга участников, причем в областях, которые не связаны с уровнем интеллекта, как подчеркивает Косьмина. Участники, которые использовали инструменты ИИ для выполнения задания, показали худшие показатели запоминания материала, а эссе были более пресными по каждой теме. Более 15% также сообщили, что не чувствовали себя авторами или хотя бы соавторами работ. В то время как 83% испытывали трудности с цитированием эссе, написанных ими всего несколько минут назад.
«Это действительно показывает довольно мрачную картину», — отмечает Косьмина, ведущий автор исследования и приглашенный научный сотрудник Google.
Эти результаты подтверждает другое исследование, опубликованное в декабре. В работе приняли участие 117 студентов университета, для которых английский был вторым языком. Они выполняли письменные задания, а также отвечали на вопросы. Исследователи обнаружили признаки того, что они назвали «метакогнитивной ленью» в мышлении участников группы, использовавших ChatGPT 4. Ичжоу Фань, ведущий автор исследования объясняет это так: некоторые из студентов, по-видимому, стали зависимы от помощи ИИ и переложили часть важных функций мышления, таких как постановка целей и самооценка, на инструменты ИИ.
Проблема в том, что некоторые учащиеся, как и преподаватели, не различают обучение и оценки, поскольку обычно качество обучения оценивается баллами, считает коллега Фаня Драган Гашевич, специалист по информатике и профессор Университета Монаша в Мельбурне, Австралия. «Генеративный ИИ помогает повысить оценки, и это похоже на допинг в спорте, — объясняет он. — В то время как само обучение требует гораздо более глубокой вовлеченности и преодоления трудностей».
Все эти работы обладают определенными ограничениями. Многие исследования имеют довольно небольшую выборку, фокусируются на очень конкретных задачах, а участники могут не показывать целостную картину, поскольку обычно отбираются по возрасту, уровню образования или в пределах узкого географического региона, как в случае исследования Косьминой. Не стоит забывать и о том, что работы охватывают непродолжительный период времени. Расширение охвата могло бы заполнить некоторые пробелы, считает Веккьоне: «Мне было бы интересно увидеть данные по разным демографическим группам за более длительные периоды времени».
Более того, критическое мышление и когнитивные процессы, как известно, сложны, а такие методы исследования, как ЭЭГ и самоотчеты, не всегда могут учесть все нюансы.
Некоторые из исследований имеют и другие оговорки. Потенциальное когнитивное воздействие не так сильно проявляется у людей с большим опытом работы с генеративным ИИ и с большим опытом выполнения задачи, для которой им требуется помощь. Например, исследование Microsoft выявило такую тенденцию, но с меньшей статистической значимостью, чем негативное воздействие на критическое мышление.
Несмотря на эти факторы, результаты вызывают тревогу, считает Веккьоне. «Пока что это предварительные выводы, но меня не удивляют эти результаты, — отмечает она. — Они отражают то, что мы наблюдаем эмпирически».
Компании часто расхваливают продукты, пытаясь их продать, и критики утверждают, что индустрия ИИ не исключение. Например, исследование Microsoft имеет особый смысл: авторы полагают, что инструменты генеративного ИИ могут «снизить когнитивную нагрузку на работников сферы интеллектуального труда, автоматизируя значительную часть их задач», что освобождает время для других рабочих дел.
Критики отмечают, что компании, занимающиеся разработкой ИИ, навязчиво продвигали технологию с момента ее создания, и эта тенденция продолжается: новое исследование, опубликованное специалистами по дизайну, документирует, как такие компании, как Google, Apple, Meta, Microsoft и Adobe, «навязывают использование ИИ как в личном, так и в профессиональном контексте».
Некоторые исследователи, в том числе Косьмина из Массачусетского технологического института, утверждают, что компании, занимающиеся разработкой ИИ, также активно продвигают использование своих инструментов в сфере образования. На мероприятии в марте Лия Бельски, вице-президент OpenAI по образованию, заявила: «Компания хочет обеспечить каждому студенту и преподавателю по всему миру доступ к ИИ и выступает за университеты, ориентированные на ИИ». Система Калифорнийского государственного университета, Мэрилендский университет и другие учебные заведения уже начали внедрять генеративный ИИ в учебный процесс, например, сделав ChatGPT легкодоступным, а Университет Дьюка недавно представил платформу DukeGPT. Google и xAI также начали продвигать услуги в области ИИ среди студентов.
По словам Алекс Ханна, вся эта шумиха и реклама, вероятно, вызваны стремлением к более масштабному внедрению ИИ, в то время как OpenAI и многие другие компании, инвестирующие в ИИ, остаются убыточными. Инвесторы и аналитики в сфере ИИ уже предполагают, что отрасль — это возможно очередной «пузырь». В то же время, утверждает Ханна, шумиха выгодна руководителям, которые хотят под шумок провести массовые увольнения, но не потому, что инструменты ИИ действительно каким-то образом заменяют работников.
Ханна считает, что исследования генеративного ИИ и критического мышления, такие как работа Microsoft, заслуживают серьезного внимания. «Многие люди, несмотря на понимание того, как все работает, слишком увлекаются технологией и приписывают ей гораздо больше, чем она есть на самом деле. Они воображают себе некий интеллект или понимание, — отмечает она. — Многие люди могут извлечь неплохую выгоду, развивая грамотность в области ИИ и действительно понимая, что находится внутри черного ящика. Однако большинству людей это ни к чему, и компании рекламируют не это. Им выгоден отблеск магии».
Сообщение Метакогнитивная лень: работа с чат-ботами влияет на критическое мышление появились сначала на Идеономика – Умные о главном.