Согласно расследованию Wired, в проекте DOGE, связанном с массовыми сокращениями в федеральных структурах США, для анализа ответов госслужащих использовали искусственный интеллект Meta* Llama 2, а не собственную модель Илона Маска Grok. Llama 2* применялась для обработки ответов на письмо с требованием либо вернуться в офис, либо уволиться.
Llama 2 — открытая и устаревшая модель Meta*, которая ранее уже вызывала споры, например, когда её использовали в китайской армии без разрешения Meta*. Похоже, DOGE запускал модель локально, что снижает риск утечки данных через интернет.
Законодатели выразили серьёзные опасения по поводу безопасности и прозрачности использования ИИ в госструктурах и требуют проверки проекта. Они предупреждают, что без надлежащего контроля ИИ может допускать ошибки и несправедливые решения, особенно в таких важных вопросах, как увольнения.
*принадлежит Meta, которая признана в РФ экстремистской и запрещена