Эксперт предложил сертифицировать ИИ по аналогии с самолётами и медициной
С развитием искусственного интеллекта все чаще возникает вопрос, кто несёт ответственность, если алгоритмы ошибаются, и это приводит к серьёзным последствиям. Николай Турубар, директор по развитию digital-агентства Articul и председатель кластера РАЭК «Искусственный интеллект», рассказал о том, насколько сложно понять, кто именно виноват, когда ИИ допускает промахи. Он привёл примеры, когда ошибки искусственного интеллекта приводили к трагедиям — от неверных медицинских рекомендаций для онкобольных до самоубийства подростка после общения с чат-ботом.
Эксперт подчеркнул, что ИИ всего лишь алгоритм, у него нет совести и понимания, и он не может нести ответственность. В итоге ответственность ложится на людей, но вот на кого конкретно определить сложно. В некоторых случаях ясно, что вина на тех, кто обучал модель, особенно если данные были неверными или предвзятыми. Например, он вспомнил судебный иск против кредитного бюро Equifax и дискриминационную систему найма от Amazon. Но часто логика решений ИИ скрыта от пользователей и разработчиков, из-за чего правовая система не может разобраться в причинах ошибок.
По мнению Турубара, чтобы справиться с этой проблемой, нужно работать в двух направлениях. С одной стороны, важно развивать технологии объяснимого ИИ, которые смогут раскрывать, почему система приняла то или иное решение. С другой, необходимы чёткие этические правила и сертификация ИИ-систем, как это сделано в авиации или медицине. Он положительно оценил инициативы вроде европейского AI Act и российского Кодекса этики для ИИ, считая их важным шагом к ответственному развитию технологий до тех пор, пока ошибки ИИ не станут опасными и необратимыми.