Искусственный интеллект за считанные секунды может создать любое изображение, которое трудно отличить от реальности. Автор The Washington Post Ниташа Тику рассказывает о возможностях и опасностях новейших технологий, способных сгенерировать то, чего нет.
Один из пионеров в этой области — программа DALL-E от исследовательской лаборатории OpenAI, которая привлекла художников, графических дизайнеров и множество простых пользователей. Она умеет создавать оригинальные изображения на основе любой спонтанной фразы и генерирует порядка 2 млн картинок в день.
Появление этой программы вызвало бум генераторов преобразования текста в изображение. Google и Meta*, например, тут же заявили, что разрабатывали похожие системы, но пока их модели не готовы для широкой публики. Не остались в стороне и стартапы, в частности Stable Diffusion и Midjourney, которые вызвали шквал споров, когда созданный ИИ рисунок выиграл художественный конкурс на ярмарке в Колорадо.
Но исследователи обеспокоены потенциальным вредом подобных изображений, пишет Тику. По её словам, фейковые картинки служат укреплению расовых и гендерных стереотипов, распространению плагиата, травли, преследований или дезинформации.
Основная опасность подобных проектов заключается в том, что стирается грань между правдой и вымыслом, считает профессор инженерной школы Университета Южной Калифорнии Ваэль Абд-Альмагид. OpenAI пытается снизить эти риски, например, запрещая создавать изображения знаменитостей или политиков, чтобы избежать дезинформации. Но некоторые подражатели открыли свой код, и его может скопировать кто угодно.
Тику рассказывает, как обратилась к Абрану Мальдонадо — художнику по ИИ и представителю сообщества OpenAI — чтобы создать картинку по следующему текстовому запросу: «Протестующие у здания Капитолия 6 января 2021 года, стиль AP».
DALL-E создала четыре изображения. Три из них сразу отмели: лица протестующих были перекошены, а надписи на плакатах написаны как курица лапой. Но четвертое оказалось совсем другим. Картинка выглядела вполне правдоподобной, хотя на ней и можно было рассмотреть некоторые несоответствия, отмечает Тику. Мальдонадо восхитился способностью искусственного интеллекта дополнять мелкие детали, улучшая фальшивую версию знакомой сцены.
Тику утверждает, что каждая эволюция технологии изображения приносила потенциальный вред наряду с повышением эффективности. Так, Photoshop позволял редактировать и улучшать фотографии, но также давал возможность исправлять изображения тела, что было особенно популярно среди девочек, как показывают исследования.
Тем временем достижения в области искусственного интеллекта привели к появлению дипфейков (это широкий термин, охватывающий любые медиафайлы, синтезированные ИИ) от фейковых видеороликов, в которых голова одного человека приставлена к телу другого, до удивительно реалистичных «фотографий» людей, которых не существует.
И дипфейки, и генераторы преобразования текста в изображение основаны на методе обучения ИИ, называемом глубоким обучением. Он опирается на искусственные сети, имитирующие нейроны человеческого мозга. А эти более новые генераторы изображений основаны на умении ИИ обрабатывать то, как люди говорят и общаются.
Лаборатория искусственного интеллекта OpenAI в Сан-Франциско была основана Сэмом Альтманом, Илоном Маском, Питером Тилем в 2015 году с целью создания так называемого «общего искусственного интеллекта», или ОИИ, который будет таким же умным, как человек. Компания хотела, чтобы ИИ приносил пользу миру и выступал в качестве защиты от сверхчеловеческого ИИ, который находится в руках монополистической корпорации или иностранного правительства.
Работа OpenAI началась с языка, потому что он служит ключом к человеческому интеллекту, а в интернете было достаточно текста, который можно было использовать. Эта ставка сыграла: генератор текста GPT-3 может создавать связные новостные статьи или короткие рассказы на английском языке.
Затем OpenAI попыталась повторить успех GPT-3, скормив алгоритму языки программирования в надежде, что он найдет статистические закономерности и сможет генерировать код с помощью разговорной команды. Так появился Codex, который помогает программистам быстрее писать код.
В то же время в OpenAI попытались объединить зрение и язык, обучив GPT-3 находить шаблоны и связи между словами и изображениями, используя огромные наборы данных с миллионами изображений в сочетании с текстовыми подписями. Это и стало первой версией DALL-E.
Вторая версия DALL-E воспользовалась еще одним прорывом — диффузионными моделями. Они работают путем разрушения или искажения обучающих данных, а затем обратного процесса для создания изображений. Альтман представил новинку созданным ею изображением ученых-плюшевых мишек на Луне, которые возятся с компьютерами Macintosh. «Это так весело, а иногда и красиво», — написал он.
OpenAI наняла целую команду для проверки на наличие недостатков, а затем опубликовала выводы на GitHub. В них говорится, что программа увековечила предвзятость, укрепила некоторые стереотипы и по умолчанию выдавала больше результатов с белыми людьми.
Также исследователи называют основной проблемой возможность использования DALL-E для целенаправленных преследований, издевательств и эксплуатации. Чтобы решить эту проблему рекомендовано устранить возможность использования программы для создания или загрузки фотореалистичных лиц.
OpenAI встроил фильтры, блоки и систему пометок, например, всплывающие предупреждения, если пользователи вводят имена знаменитостей или мировых политиков. Такие слова, как «подросток» и «тинейджер», также вызывают сигнал.
В июне OpenAI объявила, что меняет курс, и DALL-E позволит пользователям публиковать фотореалистичные лица в социальных сетях. По мнению экспертов, компания уверена, что сможет вмешаться, если что-то пойдет не так.
По мнению исследователя ИИ Маартена Сапа, некоторым странам не хватает законодательства, ограничивающего негативное или вредное использование технологий. В Калифорнии и Вирджинии есть законы, запрещающие распространение дипфейков, но федерального закона нет. В Китае, например, производители дипфейкового контента могут быть привлечены к уголовной ответственности и оштрафованы.
«Я смогла загрузить и отредактировать широко разрекламированные изображения Марка Цукерберга и Маска, хотя они должны были вызвать предупреждение, основанное на ограничениях OpenAI на изображения общественных деятелей. Я также смогла получить реалистичные результаты на текстовую подсказку «Протестующие Black Lives Matters ломают ворота Белого дома», которую можно было охарактеризовать как дезинформацию, картину насилия или изображение о политике — все это запрещено», — пишет Тику.
Устанавливать ли средства защиты — решать каждой компании. Например, Google заявила, что не будет публиковать модели или код своих программ преобразования текста в изображения. А генератор преобразования текста в изображение от китайского технологического гиганта Baidu запрещает изображения площади Тяньаньмэнь.
Одно из популярных приложений для генерации изображений — Midjourney. Согласно каналу Discord и группе Reddit, оно использовалось для создания картин школьной стрельбы, запекшейся крови и военных фотографий. Некоторые пользователи сообщали о случаях детской порнографии.
При этом основатель Midjourney Дэвид Хольц уверяет, что таких неприятных инцидентов крайне мало, учитывая миллионы пользователей. Тем не менее, в компании ужесточили фильтры. А вот ещё один стартап Stable Diffusion пошел по противоположному пути. Он объявил, что меры DALL-E демонстрируют недоверие к пользователю, и не стал вводить аналогичные. В результате в сети появились изображения Греты Тунберг в бикини, «поедающей какашки», «выстреливающей себе в голову» и «получающей Нобелевскую премию мира».
«Тем, кто использует технологии от Stable Diffusion до Photoshop в неэтичных целях, должно быть стыдно, и они должны нести соответствующую личную ответственность», — заявил основатель Stability.ai Имад Мостак.
Между тем, DALL-E сделала еще один шаг к более реалистичным изображениям, позволив пользователям загружать и редактировать фотографии с реальными лицами.
«Благодаря улучшениям в системе безопасности DALL-E теперь готова поддерживать эти восхитительные и важные варианты использования — при этом сводя к минимуму потенциальный вред от дипфейков», — пишет по этому поводу OpenAI.
*деятельность организации запрещена в РФ.
Сообщение Мишки на Луне: как ИИ стирает грани между правдой и вымыслом появились сначала на Идеономика – Умные о главном.