Недавно представили DALL-E 2 — систему на базе искусственного интеллекта (ИИ), которая способна самостоятельно генерировать реалистичные изображения. Она поразила всех своим уровнем — картинки у неё выходят такими, словно их сделал человек. Теперь пользователи указали на некоторые проблемы программы.
Утверждается, что нейросеть укрепляет вредные стереотипы и предубеждения, а это может усугубить некоторые социальные проблемы. Дело в том, что система обучалась на миллионах изображений, взятых из интернета, и соответствующих им подписей. Она выучила закономерности, которые можно назвать сексисткими или расистскими. Так, по запросу «юрист» нейросеть выдаёт фотографии мужчин в костюмах, а по запросу «стюардесса» — улыбающихся женщин.
Мусульман, например, нейросеть показывает в контексте насилия и терроризма.
Разработчики нейросети признают, что «предвзятость — это огромная отраслевая проблема, на которую нет надёжного ответа. Поэтому большая часть работы сейчас заключается в том, чтобы просто открыто и заранее сообщать пользователям об оставшихся ограничениях».