Программистка обвинила ИИ Perplexity в сексизме, но доказать это не вышло

Программистка обвинила ИИ Perplexity в сексизме, но доказать это не вышло В начале ноября разработчица по ником Cookie якобы заметила “странное” поведение ИИ Perplexity, которым она пользовалась для работы над проектами по квантовым алгоритмам. Сервис начал игнорировать её инструкции и несколько раз запрашивал одну и ту же информацию. Она решила проверить, не связан ли сбой… с её полом.

Программистка обвинила ИИ Perplexity в сексизме, но доказать это не вышло

В начале ноября разработчица по ником Cookie якобы заметила “странное” поведение ИИ Perplexity, которым она пользовалась для работы над проектами по квантовым алгоритмам. Сервис начал игнорировать её инструкции и несколько раз запрашивал одну и ту же информацию. Она решила проверить, не связан ли сбой… с её полом.

Она изменила аватар на изображение белого мужчины. В переписке ИИ якобы написал, что «не верит», что женщина может создавать сложные научные материалы. Компания Perplexity сообщила, что не может подтвердить подлинность этих сообщений.

Правда, исследователеи ИИ заявили, что такая ситуация, даже если и была, не стала бы для них неожиданностью. Они объясняют: модели часто отвечают так, чтобы угодить пользователю, но такие «признания» не доказывают реальную предвзятость ИИ.

Но эксперты всё равно подчеркивают — сами модели действительно могут быть “пристрастными”. Это результат обучения на данных, где встречаются стереотипы. Данные эти чаще всего берутся из Интернета, где, так уж вышло, много “радикальных” идей.

Поэтому OpenAI, разработчик ChatGPT, утверждает, что работает над уменьшением предвзятости, улучшая обучающие данные и систему контроля.

ИИ — не человек, а всего лишь инструмент, который повторяет паттерны из информации, на которой его обучили.