Недавно представили DALL-E 2 — систему на базе искусственного интеллекта (ИИ), которая способна самостоятельно генерировать реалистичные изображения. Она поразила всех своим уровнем — картинки у неё выходят такими, словно их сделал человек. Теперь пользователи указали на некоторые проблемы программы.
Утверждается, что нейросеть укрепляет вредные стереотипы и предубеждения, а это может усугубить некоторые социальные проблемы. Дело в том, что система обучалась на миллионах изображений, взятых из интернета, и соответствующих им подписей. Она выучила закономерности, которые можно назвать сексисткими или расистскими. Так, по запросу «юрист» нейросеть выдаёт фотографии мужчин в костюмах, а по запросу «стюардесса» — улыбающихся женщин.
![](https://mediamag.su/wp-content/uploads/2022/04/d181d0bed0b7d0b4d0b0d18ed189d183d18e-d0bad0b0d180d182d0b8d0bdd0bad0b8-d0bdd0b5d0b9d180d0bed181d0b5d182d18c-d183d0bbd0b8d187d0b8d0bb-2.png)
![](https://mediamag.su/wp-content/uploads/2022/04/d181d0bed0b7d0b4d0b0d18ed189d183d18e-d0bad0b0d180d182d0b8d0bdd0bad0b8-d0bdd0b5d0b9d180d0bed181d0b5d182d18c-d183d0bbd0b8d187d0b8d0bb.png)
Мусульман, например, нейросеть показывает в контексте насилия и терроризма.
Разработчики нейросети признают, что «предвзятость — это огромная отраслевая проблема, на которую нет надёжного ответа. Поэтому большая часть работы сейчас заключается в том, чтобы просто открыто и заранее сообщать пользователям об оставшихся ограничениях».