Эмоциональные агенты: в чем подвох нового витка развития ИИ

Эмоциональные агенты: в чем подвох нового витка развития ИИ Многие люди сегодня шокированы интеллектом ИИ. Однако скоро это будет казаться мелочью по сравнению с гораздо большим потрясением: высокоэмоциональным ИИ. Появление синтетических эмоций вызовет в человеческом обществе смятение, возмущение, беспокойство и культурный шок, который превзойдет всю уже разыгравшуюся шумиху. В ближайшие годы заголовки статей сменятся с «Все потеряют работу» (это не так) на «Романтический партнер
Сообщение Эмоциональные агенты: в чем подвох нового витка развития ИИ появились сначала на Идеономика – Умные о главном.

Эмоциональные агенты: в чем подвох нового витка развития ИИ

Многие люди сегодня шокированы интеллектом ИИ. Однако скоро это будет казаться мелочью по сравнению с гораздо большим потрясением: высокоэмоциональным ИИ. Появление синтетических эмоций вызовет в человеческом обществе смятение, возмущение, беспокойство и культурный шок, который превзойдет всю уже разыгравшуюся шумиху. В ближайшие годы заголовки статей сменятся с «Все потеряют работу» (это не так) на «Романтический партнер с ИИ: конец цивилизации, какой мы ее знаем».

Мы можем рационально воспринять тот факт, что компьютер способен быть разумным. Нам это может не нравиться, но принять, что компьютер может быть умным, относительно легко, отчасти потому, что мы привыкли считать собственный мозг разновидностью компьютера. Трудно поверить, что они могут быть такими же умными, как мы, но это хотя бы объяснимо.

Принять машинное творчество сложнее. Творчество кажется очень человечным, и в некотором смысле оно воспринимается как противоположность рациональности. Поэтому кажется, что, в отличие от рациональности, машина не способна творить.

Эмоции интересны тем, что они явно встречаются не только у людей, но и у многих животных. Любой владелец домашнего животного легко перечислит, как именно его питомец воспринимает и проявляет эмоции. Отчасти любовь к животным возникает из-за эмоционального резонанса с ними. Они реагируют на наши эмоции так же, как мы реагируем на их. Между человеком и животным существуют настоящие, глубокие эмоциональные связи.

Похожие эмоциональные связи возникнут и с машиной. Проблески этого процесса мы уже наблюдаем. Почти каждую неделю кто-то из незнакомцев присылает мне записи разговоров с ИИ, демонстрируя, насколько глубоки и выразительны эти отношения, как хорошо они понимают друг друга и как сильно связаны душой. Приходят сообщения о подростках, глубоко погрузившихся в общение с «ИИ-другом». И все это еще до того, как была проведена серьезная работа по намеренному внедрению эмоций в искусственный интеллект.

Но зачем наделять ИИ эмоциями? По целому ряду причин.

Во-первых, эмоции — это отличная часть для интерфейса машины. Они делают взаимодействие с ней гораздо более естественным и комфортным. Эмоции просты для человека. Для многих вещей в жизни нам не нужны инструкции, мы все интуитивно понимаем такие вещи, как похвала, энтузиазм, сомнение, убеждение, удивление, недоумение, то есть то, чего не хватает машине. Люди используют тонкие эмоциональные сигналы, чтобы передать невербальную информацию, важность и инструкции, и ИИ будет использовать аналогичные эмоциональные ноты в общении.

Во-вторых, рынок отдаст предпочтение эмоциональным агентам, потому что именно так поступают люди. ИИ и роботы будут продолжать диверсифицироваться, даже несмотря на сближение их базовых способностей, и поэтому личные качества и эмоциональный характер станут более важными при выборе того, кого использовать. Если все они одинаково умны, то работу получит тот, кто дружелюбнее, приятнее, или может составить вам хорошую компанию.

В-третьих, многое из той работы, которую, как мы надеемся, будут делать искусственные агенты, неважно, модели ИИ или роботы, потребует не только рациональных вычислений. Недостаточно того, что ИИ может писать код всю ночь напролет. В настоящее время мы переоценили значение интеллекта. Чтобы быть по-настоящему творческим и способным к инновациям, чтобы быть достаточно мудрым, чтобы дать хороший совет, потребуется нечто большее, чем просто IQ. Ботам нужна сложная эмоциональная динамика, глубоко заложенная в их программное обеспечение.

А это вообще возможно? Да.

Существуют исследовательские программы (например, в Массачусетском технологическом институте), которые длятся не одно десятилетие. В их рамках выясняется, как разложить эмоции на атрибуты, которые можно перенести на машины. Некоторые из этих данных относятся к способам визуального отображения эмоций в аппаратных средствах, так же как мы делаем это с человеческими лицами. Другие исследователи изучают способы передачи эмоций голосом и даже словами в тексте. Недавно мы стали свидетелями того, как создатели ИИ меняли то, насколько дружелюбны и «милы» их агенты, потому что некоторым пользователям не понравилась «новое лицо» программы, а некоторым просто не по душе изменения в характере ИИ. Хотя мы определенно можем программировать личность и эмоции ИИ, мы пока не разобрались, какие из них лучше всего подходят для конкретной задачи.

Эмоциональные машины — это лишь пол дела. Вторая половина — это обнаружение и понимание машинами человеческих эмоций. Отношения двусторонние, и для того, чтобы действительно стать эмоциональным агентом, ИИ должен хорошо улавливать наши эмоции. В этой сфере было проведено множество исследований, в первую очередь в области распознавания, не только в качестве идентификации человека, но и наших чувств. Существуют коммерческие приложения, которые могут наблюдать за пользователем за клавиатурой и определять, находится ли он в депрессии или испытывает эмоциональный стресс. Расширением такой функции станут умные очки, которые не только смотрят на вас, но и анализируют мимику, чтобы понять эмоции. Вы смущены или восхищены? Удивлены или благодарны? Чем-то озабочены или расслаблены? В очках Vision Pro от Apple уже установлены камеры, направленные на пользователя, которые отслеживают глаза и микро-мимику, например, моргание и поднятие бровей. Нынешние текстовые модели не пытаются определить эмоциональное состояние, за исключением того, что можно понять по стилю письма, но технически это не такой уж большой шаг вперед.

В ближайшие годы будет проведено множество эмоциональных экспериментов. Некоторые модели искусственного интеллекта будут немногословны и логичны, другие — разговорчивые экстраверты. Одни агенты ИИ будут говорить негромко и только тогда, когда вы будете готовы слушать. Другие люди предпочтут шумные, веселые, остроумные модели ИИ, которые могут рассмешить. А многие коммерческие модели ИИ будут специально созданы для того, чтобы стать лучшим другом.

Возможно, для взрослых это и достойно восхищения, но перспектива с детьми вызывает ужас. На самом деле, когда речь идет об ИИ и детях, нужно опасаться не только эмоций, но и многих других проблем. Но эмоциональные связи станут ключевым моментом в создании моделей ИИ, предназначенных для детей. Совсем маленькие дети привязываются и любят простых кукол и плюшевых мишек. Представьте себе, если бы плюшевый мишка разговаривал с ребенком, играл с бесконечным терпением и отражал его эмоции. Когда ребенок вырастет, он, возможно, никогда не захочет расстаться с игрушкой. Поэтому качество эмоций в машинах, скорее всего, станет одной из тех областей, где у нас будут совершенно разные режимы, один для взрослых, другой для детей. Разные правила, функционал, законы, бизнес-модели и так далее.

Но даже взрослые могут быть привязаны к эмоциональным агентам, как в фильме «Она». Поначалу общество будет клеймить людей, которые погрязли в любви к ИИ, как чудаков или психически неуравновешенных. Но как большинство людей, глубоко любящих собаку или кошку, нормальны, хорошо приспособлены и способны к сопереживанию, так и большинство людей, у которых будут близкие отношения с ИИ и ботами, будут считать эти связи полезными и благотворными.

Распространенный страх перед теплыми отношениями с машинами заключается в том, что они могут быть настолько хорошими, умными, терпеливыми, доступными, настолько более полезными, чем другие люди, что мы вообще откажемся от человеческих отношений. Это может случиться. Нетрудно представить, что люди из благих побуждений будут потреблять только «вкусную легкую дружбу», которую предлагают ИИ, подобно тому, как возникает соблазн потреблять только вкусные легкие калории из промышленных продуктов. Лучшее средство борьбы с этим искушением аналогично фастфуду: образование и выбор. Частью взросления в новом мире станет умение видеть разницу между идеальными отношениями и запутанными, трудными, несовершенными человеческими отношениями, а также ценность последних. Чтобы становиться лучше, что бы вы под этим ни понимали, необходимо проводить время с людьми!

Вместо того чтобы запрещать отношения с ИИ (или фастфуд), вы ограничиваете их и думаете наперед. Ведь на самом деле «идеальное» поведение ИИ-друга, наставника, тренера или партнера может стать отличным примером для подражания. Если вы окружите себя ИИ, которые были обучены и настроены на то, чтобы стать лучшими из тех, кого могут создать люди, это будет потрясающим способом самосовершенствования. У среднестатистического человека очень поверхностная этика и противоречивые принципы, которые легко поколебать низменными желаниями и обстоятельствами. Теоретически мы в состоянии запрограммировать искусственный интеллект так, чтобы его этика и принципы были лучше, чем у среднего человека. Точно так же мы можем запрограммировать ИИ быть лучшим другом, чем средний человек. Наличие таких образованных ИИ рядом поможет расти и стать лучшими людьми. А люди, которые завяжут с ними глубокие отношения, имеют шанс стать самыми благополучными и сопереживающими людьми из всех.

Аргумент о том, что эмоции ИИ не настоящие, потому что «боты ничего не чувствуют», будет просто отброшен. Точно так же, как и критика искусственного интеллекта как искусственного и, следовательно, не настоящего, потому что он не понимает. Это не имеет значения. Мы не понимаем, что на самом деле означает «чувствовать», и даже не понимаем, что означает «понимать». Это привычные, но уже бесполезные термины и понятия. ИИ делают реальные вещи, которые мы привыкли называть интеллектом, и они начнут делать реальные вещи, которые мы привыкли называть эмоциями. Самое главное, что отношения людей с ИИ, ботами, роботами будут такими же реальными и значимыми, как и любые другие человеческие отношения. Это будут настоящие отношения.

Но эмоции, которые испытывают ИИ/роботы, хоть и реальны, скорее всего, будут другими, с перекосом. ИИ могут быть смешными, но их чувство юмора немного другое. Они будут смеяться над тем, что мы не находим смешным. И это постепенно изменит человеческий юмор, точно так же как их игра в шахматы и го изменила нашу игру. Модели ИИ умны, но в нечеловеческом смысле. Их эмоциональность будет столь же чуждой, поскольку модели ИИ — это, по сути, искусственные инопланетяне. На самом деле, наблюдая за ними, мы узнаем больше о том, что такое эмоции, чем изучая самих себя.

Эмоции в машинах не появятся в одночасье. Они будут накапливаться постепенно, и у нас будет время ими управлять. Они начинаются с вежливости, учтивости, любезности. Модели ИИ хвалят и льстят нам, легко, может быть, даже слишком. Главное не в том, будут ли наши связи с машинами тесными и интимными (будут!), и не в том, будут ли эти отношения реальными (будут!), и не будут ли они исключать человеческие отношения (не будут). Главный вопрос: на кого работает ваш эмоциональный агент? Кто им владеет? Для чего он оптимизирован? Можете ли вы быть уверены, что он не будет вами манипулировать? Именно эти вопросы будут доминировать в следующем десятилетии.

Очевидно, что информация, связанная с эмоциями, станет конфиденциальными данными. Чего мы боимся? Что именно делает нас счастливыми? Что вызывает у нас отвращение? Что нас волнует? Представьте, что вы проводите несколько лет, день за днем, в постоянном общении с ИИ агентом. У него на вас будет наиболее полное досье! Даже если мы никогда не раскроем самые глубокие страхи, заветные желания и уязвимые моменты, он будет знать все это только по эмоциональной окраске наших сообщений, вопросов и реакций. ИИ будет знать нас лучше, чем мы сами. В ближайшие десятилетия это станет частой фразой, повторяемой с восторгом и ужасом: «Мой агент ИИ знает меня лучше, чем я сам».

И слишком часто это будет правдой. В лучшем случае мы используем этот инструмент, чтобы лучше узнать себя. В худшем – асимметрия в знаниях будет использоваться для манипулирования и игры на наших худших качествах. Я уверен, что мы станем включать ИИ в свою жизнь, ежечасно, если не поминутно (будут исключения, например амиши, которые откажутся от него, но их будет ничтожное меньшинство), по крайней мере, нет доказательств обратного. Большинство людей все время будут поддерживать близкие отношения с агентом/роботом ИИ, который всегда на связи и готов помочь всем, чем может. Эти отношения станут такими же реальными и значимыми, как и любая другая человеческая связь. Мы будем охотно делиться с ним самыми сокровенными моментами жизни. В среднем мы будем предоставлять ему свои самые личные данные до тех пор, пока это будет выгодно. (Вопрос конфиденциальности данных заключается не в том, у кого они находятся, а в том, какую выгоду я получаю. Люди готовы делиться любыми данными, если выгода достаточно велика).

Если через двадцать пять лет люди, чьим постоянным спутником является агент ИИ, окажутся полными придурками, мизантропами и неудачниками, то это будет конец истории эмоциональных агентов ИИ. С другой стороны, если такие люди будут более эмпатичны, чем в среднем, более продуктивными, уникальными, хорошо приспособленными, с богатой внутренней жизнью, то это будет началом истории.

Мы можем направить историю в нужное нам русло, поощряя те изобретения, которые продвигают нас в этом направлении. Вопрос не в том, будет ли ИИ эмоциональным, а в том, как мы будем использовать эту эмоциональность.

Сообщение Эмоциональные агенты: в чем подвох нового витка развития ИИ появились сначала на Идеономика – Умные о главном.