По сообщениям СМИ, Google использует ИИ-модель Claude компании Anthropic для оценки своего ИИ Gemini, согласно внутренней переписке, попавшей в распоряжение TechCrunch. Подрядчики, работающие над Gemini, сравнивают его ответы с ответами Claude, оценивая их по таким критериям, как точность, правдивость и безопасность.
Оценка выявила несколько ключевых различий. В своих ответах Claude уделяет первостепенное внимание безопасности и часто отказывается отвечать на запросы, которые считает небезопасными. В отличие от него, Gemini был отмечен за нарушение правил безопасности, включая некий «неприемлемый контент».
Условия обслуживания Anthropic запрещают использовать Claude для разработки конкурирующих продуктов или услуг без разрешения. Google, крупный инвестор Anthropic, не подтвердил, получил ли он разрешение на использование Claude для этих тестов. Представитель Google заявил, что сравнение моделей является «стандартной практикой», но отрицает, что Gemini обучался на данных Anthropic.