Воспитатели роботов: кто научит ИИ человечности?

Наряду с машинным обучением искусственному интеллекту требуется… воспитание. Именно с пестованием ребенка, которого учат тому, что можно, а что нельзя, сравнивают обучение современных машин руководители компании Accenture Пол Доэрти и Джеймс Уилсон. В книге «Человек + Машина. Новые принципы работы в эпоху искусственного интеллекта» они предрекают развитие целого ряда профессий, связанных с обучением ИИ этическим […] …

Наряду с машинным обучением искусственному интеллекту требуется… воспитание. Именно с пестованием ребенка, которого учат тому, что можно, а что нельзя, сравнивают обучение современных машин руководители компании Accenture Пол Доэрти и Джеймс Уилсон. В книге «Человек + Машина. Новые принципы работы в эпоху искусственного интеллекта» они предрекают развитие целого ряда профессий, связанных с обучением ИИ этическим нормам, приближенным к человеческим. Книга Доэрти и Уилсона выходит в издательстве МИФ.

В 2015 году на заводе компании Volkswagen в Германии робот нанес сотруднику смертельные увечья. Трагическая гибель рабочего привлекла внимание общества к растущей зависимости от автоматизированных инструментов. С тех пор как компьютеры начали брать на себя выполнение все более сложных задач, усиливаются опасения, что машины могут выйти из-под контроля. От компьютера HAL из фильма «2001 год: Космическая одиссея» до киборгов из франшизы «Терминатор» — популярная культура только подогревает тревоги людей. Однако робот в Германии не совершал умышленного нападения на рабочего. Согласно первым отчетам, причина трагедии заключалась в программной ошибке — другими словами, в ошибке человека.

Это ужасающее происшествие — исключительный случай, однако обеспечение корректного использования искусственного интеллекта — первоочередная обязанность представителей новой профессии: экспертов по устойчивости, которые должны постоянно работать над тем, чтобы системы искусственного интеллекта функционировали надлежащим образом как инструменты, призванные обслуживать людей, помогать им выполнять свою работу и облегчать их жизнь. Таким образом эксперты по устойчивости систем искусственного интеллекта помогут развеять страхи перед мрачным будущим, в котором роботы станут разумными и превзойдут человеческое общество.

По итогам недавнего исследования Accenture мы обнаружили, что менее трети компаний демонстрируют высокий уровень доверия к справедливости и контролируемости систем искусственного интеллекта, а также что менее половины компаний испытывают столь же высокое доверие к безопасности этих систем. Исследования показали, что каждый третий опасается искусственного интеллекта, а каждый четвертый убежден, что эта технология нанесет вред обществу. Безусловно, это указывает на фундаментальные проблемы, которые необходимо решить, чтобы и впредь использовать технологии искусственного интеллекта. Именно здесь эксперты по устойчивости систем искусственного интеллекта будут играть ключевую роль.

Безусловно, даже грамотно спроектированные системы могут создавать определенные проблемы, а в некоторых случаях проблема заключается в чересчур хорошем функционировании технологии, что приводит к непреднамеренному нанесению вреда. Много лет назад известный писатель-фантаст Айзек Азимов сформулировал три закона робототехники:

— Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

— Робот должен повиноваться всем приказам человека, кроме тех случаев, когда эти приказы противоречат первому закону.

— Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.

Впервые изложенные в рассказе «Хоровод» (1942), эти три закона актуальны до сих пор, однако это только отправная точка. Например, должен ли беспилотный автомобиль, пытаясь защитить своих пассажиров, свернуть в сторону, чтобы не сбить выбежавшего на дорогу ребенка, если при этом он может совершить наезд на пешехода? Именно из-за таких вопросов компаниям, которые проектируют и используют сложные технологии искусственного интеллекта, понадобятся специалисты по безопасности систем искусственного интеллекта. Они должны делать все от них зависящее, чтобы предвидеть непреднамеренные результаты действий системы искусственного интеллекта, а также без промедления устранять последствия любых происшествий.

За одну из важнейших функций отвечают менеджеры по соблюдению этических норм. Они будут блюстителями общепринятых норм, человеческих ценностей и моральных принципов. Например, если система искусственного интеллекта по одобрению кредитов проявляет дискриминацию к людям, проживающим в определенных регионах, такой менеджер обязан расследовать и устранить это нарушение этических (а может, даже правовых) норм. Другие случаи предвзятости могут быть не столь явными, как у поискового алгоритма, выдающего изображения только белых женщин, когда кто-то вводит запрос «любящая бабушка». Менеджер по соблюдению этических норм в сотрудничестве с экспертом по алгоритмам должен раскрыть причины такой выдачи, а затем принять надлежащие меры по их устранению.

В будущем возрастет роль искусственного интеллекта в обеспечении того, чтобы передовые системы действовали согласно этическим принципам и моральным нормам человеческого сообщества. Исследователи Школы интерактивных вычислений Технологического института Джорджии Марк Ридл и Брент Харрисон создали прототип системы искусственного интеллекта Quixote, которая способна усваивать этические принципы (например, что нельзя воровать) при чтении прозы. По словам Ридла и Харрисона, эта система умеет обнаружить ценности, анализируя художественные тексты, где люди взаимодействуют друг с другом. Такие произведения описывают культуру и общество, кодируя тем самым «общие знания, социальные протоколы, примеры надлежащего и ненадлежащего поведения, а также стратегии преодоления трудностей». Так, «прочитав» множество историй, система Quixote узнала о том, что стремление к эффективности весьма похвально, за исключением тех случаев, когда это противоречит другим важным факторам. Однако даже при наличии таких инноваций менеджерам по соблюдению этических норм все равно необходимо будет осуществлять мониторинг и обеспечивать надлежащее функционирование сложных систем такого рода.

Система искусственного интеллекта может быть технически совершенной и этичной, но все же оказывать негативное воздействие на организацию. Именно поэтому компаниям понадобятся специалисты по этике автоматизации, в обязанности которых будет входить оценка неэкономического воздействия систем искусственного интеллекта. Один из важных аспектов — общий уровень принятия новых технологий сотрудниками компании. Разумеется, они боятся потерять работу из-за автоматизированной прикладной системы, которая способна функционировать так же хорошо, как человек, если не лучше.

Сильные эмоциональные реакции могут возникать в ответ на внедрение роботизированных систем искусственного интеллекта. Изучая, как мы реагируем на роботов, японский специалист по робототехнике Масахиро Мори обнаружил одну любопытную закономерность. Чем реалистичнее робот, тем выше наша эмоциональная близость и эмпатия, но до определенного момента. Когда робот становится еще более похожим на нас, любые изъяны или отклонения начинают вызывать у нас отторжение. Однако если эти изъяны убрать, робота будет почти не отличить от человека, он снова начнет вызывать у нас положительные эмоции, и со временем уровень эмпатии к такому роботу сравнится с уровнем эмпатии к человеку. Резкое снижение эмпатии, которое Мори обозначил термином «зловещая долина», может стать препятствием на пути успешного взаимодействия человека и машины. Специалисты по этике автоматизации должны знать об этом феномене.

В целом эффективно функционирующие системы искусственного интеллекта целесообразно продвигать, а их варианты дублировать и внедрять в других подразделениях компании. С другой стороны, необходимо ограничить функции систем искусственного интеллекта, работающих неудовлетворительно, а если усовершенствовать их невозможно, то снимать с эксплуатации. Решением этих задач будут заниматься менеджеры по связям с машинами — специалисты с функциями, как у HR, только контролировать они будут не сотрудников, а системы искусственного интеллекта. Эти специалисты будут работать в «отделе по связям с машинами» и регулярно проводить аттестацию всех систем искусственного интеллекта, внедренных в организации. В ходе такой аттестации нужно будет проанализировать множество факторов, в том числе объективную производительность системы, а также опосредованные цели, например стремление следовать корпоративным ценностям, таким как повышение разнообразия и забота об окружающей среде.