Четыре самые серьёзные проблемы искусственного интеллекта

Как и у любого явления, у искусственного интеллекта есть достоинства и недостатки. О последних рассказал в рамках статьи на «Хабре» представитель компании Toshiba. …

Как и у любого явления, у искусственного интеллекта есть достоинства и недостатки. О последних рассказал в рамках статьи на «Хабре» представитель компании Toshiba.

Известно, что в 2020 году, отмечает автор, до 20 процентов прибыли было получено компаниями благодаря искусственному интеллекту (ИИ). Но система эта всё равно имеет некоторые минусы. О них – ниже.

  1. Данные, которыми «питается» ИИ, могут быть неправильными. ИИ устроен так, что на основе большого количества информации о чём-либо делает вывод. И этот вывод может оказаться ошибочным. К примеру, в 2016 году был случай, когда система не распознавала глаза азиатского гражданина на фото из-за того, что большинство жителей Новой Зеландии (страны, где использовался ИИ) имеют европейскую внешность.

Кроме того, база данных ИИ сама по себе может быть некачественной или испорченной. Если говорить кратко, то из-за ограниченного числа данных искусственный интеллект не способен делать выводы об объективной реальности – он создаёт свою реальность. А из-за того, что базы данных строятся на информации о прошлом, с прогнозами у системы тоже довольно плохо. Решить данную проблему способны цифровые двойники.

  1. Машинное обучение работает не так, как человеческий мозг. Из-за этого обмануть его довольно просто. К примеру, если вспомнить технологию распознавания изображений, то в этом случае машина распознаёт не само по себе лицо как явление, а набор пикселей, который чаще всего указывает на наличие лица на картинке. Пока ещё не придумали способ решить эту проблему раз и навсегда, но есть несколько предположений на этот счёт: расширение базы обучения и исправление ошибок; обучение двух ИИ друг друга; обучение ИИ понятиям пространства, времени и т.п. В последнем случае разработчики ещё не придумали, каким образом можно связать данные понятия с набором пикселей.

Также ИИ бывает нелегко понять. Иногда отследить логическую цепочку, в соответствии с которой система делает выводы, тяжело. Так, ИИ Deep Patient, внедрённый в 2015 году в США, мог точно диагностировать шизофрению, в то время как самим медикам это удавалось с трудом.

  1. Наличие у ИИ «отпечатка» мышления и ценностей их разработчиков. У создателей могут быть проблемы с пониманием и знанием психологии, социологии и других гуманитарных дисциплин, а от ИИ часто требуют именно решения социальных задач. Кроме того, это может спровоцировать появление этических проблем, так как сознания и этических установок у искусственного интеллекта нет. Объективным и беспристрастным он не будет никогда.

  2. Создание ИИ – это труд миллионов людей, причём зачастую низкооплачиваемый. Сбором и фильтрацией данных занимаются не только разработчики, но и другие люди: программисты размещают заказы на сбор и обработку данных на различных платформах.

Кроме того, за всё время обучения ИИ выделяются тонны углекислого газа. Например, учёные из Беркли и компания Google заявляют, что GPT-3 за период обучения производит 552 метрических тонн углекислого газа (это аналогично количеству углекислого газа, которое выделяется ежегодно 120 легковыми автомобилями с двигателем внутреннего сгорания).