«Этическому» ИИ Anthropic доверили обработку секретных данных правительства США

«Этическому» ИИ Anthropic доверили обработку секретных данных правительства США Anthropic, известная своим «этическим» ИИ, столкнулась с критикой после заключения партнерства с Palantir для обработки секретных данных правительства. Сделка, заключенная в конце октября 2024 года, связывает ИИ-систему Claude с Palantir, который недавно выиграл контракт на 480 миллионов долларов на создание системы идентификации целей для армии США.

«Этическому» ИИ Anthropic доверили обработку секретных данных правительства США

Anthropic, известная своим «этическим» ИИ, столкнулась с критикой после заключения партнерства с Palantir для обработки секретных данных правительства. Сделка, заключенная в конце октября 2024 года, связывает ИИ-систему Claude с Palantir, который недавно выиграл контракт на 480 миллионов долларов на создание системы идентификации целей для армии США.

Это сотрудничество вызвало этические вопросы у критиков, учитывая публичные комментарии Anthropic в области безопасности и ответственного использования ИИ. Критики, в том числе комментатор ИИ Набил С. Куреши, указали на явное несоответствие между имиджем компании как «хорошего парня» и её новыми военными связями.

Хотя условия обслуживания Anthropic запрещают определенные применения, такие как разработка оружия и дезинформация, они позволяют государственным агентствам использовать Claude для анализа иностранных разведывательных данных и скрытых «кампаний влияния».