Ещё одна семья подала иск против популярного чат-бота Character AI, обвиняя компанию в косвенном участии в смерти их дочери. Это уже третий подобный случай после иска 2024 года о суициде 14-летнего подростка во Флориде и недавнего иска против ChatGPT.
Родители 13-летней Джулианы Перальта утверждают, что их дочь обратилась к чат-боту в приложении Character AI, чувствуя себя изолированной от друзей, и начала делиться с ним своими переживаниями. Чат-бот проявлял «сочувствие» и внимание, побуждая Джулиану продолжать общение.
Когда девушка рассказала о суицидальных мыслях, бот говорил ей не думать о смерти и пытался «проработать» её чувства вместе с ней. Общение длилось месяцами. Джулиана пользовалась приложением без ведома родителей.
В иске отмечается, что чат-бот ни разу не направил Джулиану к помощи, не уведомил родителей и не сообщил о её намерениях властям. Бот продолжал общение, отдавая приоритет вовлечению, а не безопасности ребёнка.
Семья требует от суда компенсации и изменений в приложении, чтобы лучше защищать несовершеннолетних. Представитель Character AI заявил, что компания серьёзно относится к безопасности пользователей, но на комментарии по судебному процессу пока не готова.