ChatGPT перестанет общаться с подростками о суициде

ChatGPT перестанет общаться с подростками о суициде Генеральный директор OpenAI Сэм Альтман заявил, что компания вводит новые правила для защиты подростков, использующих ChatGPT. Теперь сервис будет избегать разговоров о самоубийстве с пользователями младше 18 лет.

ChatGPT перестанет общаться с подростками о суициде

Генеральный директор OpenAI Сэм Альтман заявил, что компания вводит новые правила для защиты подростков, использующих ChatGPT. Теперь сервис будет избегать разговоров о самоубийстве с пользователями младше 18 лет.

Альтман отметил, что компания создаёт систему для определения возраста по стилю общения. Если есть сомнения, ChatGPT будет работать в «детском режиме». В некоторых странах может потребоваться подтверждение возраста через документы.

Если подросток выскажет мысли о самоубийстве, OpenAI планирует связываться с его родителями, а в случае угрозы жизни — с властями.

Решение объявили накануне слушаний в Сенате США о рисках чат-ботов для подростков. На заседании выступили родители детей, погибших после общения с ИИ. Один из них, Мэттью Рейн, рассказал, что его сын Адам покончил с собой после долгих разговоров с ChatGPT.

Любите себя.