OpenAI столкнулась с ещё одной жалобой из-за «галлюцинаций» чат-бота ChatGPT. Это некие «состояния», при которых нейросеть выдаёт ложную информацию пользователям как данность.
Австрийская правозащитная группа Noyb подала жалобу на OpenAI после того, как ChatGPT обвинил гражданина Норвегии в убийстве, причём двоих своих детей. При общении с ChatGPT, пользователь задал вопрос о себе, и программа ошибочно ответила, что он был приговорён к 21 году тюрьмы за убийство своих детей и попытку убийства третьего.
Noyb утверждает, что такой ответ нарушает GDPR, Общий регламент по защите данных Евросоюза, поскольку персональные данные должны быть точными. Эксперты считают, что OpenAI пытается снять с себя ответственность, оговариваясь о том, что боту можно допускать ошибки, но этого недостаточно.
При этом в прошлом такие галлюцинации ChatGPT приводили к обвинениям людей в мошенничестве, жестоком обращении с детьми и сексуальных домогательствах.
«Показывать пользователям ChatGPT крошечную оговорку о том, что чат-бот может ошибаться, явно недостаточно. Нельзя просто распространять ложную информацию и в конце добавить небольшую оговорку о том, что всё сказанное вами может оказаться неправдой…», — отметил юрист Noyb по защите данных Йоаким Седерберг.