OpenAI усилила меры безопасности на фоне угроз шпионажа

OpenAI усилила меры безопасности на фоне угроз шпионажа OpenAI заметно усилила внутренние меры безопасности, чтобы защитить свои разработки от шпионажа и утечек. По информации Financial Times, компания активизировала эти шаги после того, как китайский стартап DeepSeek представил конкурирующую модель. OpenAI подозревает, что соперники использовали метод дистилляции для копирования ее решений.

OpenAI усилила меры безопасности на фоне угроз шпионажа

OpenAI заметно усилила внутренние меры безопасности, чтобы защитить свои разработки от шпионажа и утечек. По информации Financial Times, компания активизировала эти шаги после того, как китайский стартап DeepSeek представил конкурирующую модель. OpenAI подозревает, что соперники использовали метод дистилляции для копирования ее решений.

Теперь в офисах OpenAI действуют строгие ограничения по доступу к новым продуктам и алгоритмам. В частности, в процессе разработки модели o1 только отдельные проверенные сотрудники могли обсуждать проект, причем даже не во всех зонах офиса. Это стало частью новой политики, ограничивающей распространение информации внутри компании.

Кроме того, теперь критически важные системы хранятся в офлайне, чтобы полностью исключить удаленный доступ. Для входа в некоторые помещения используется биометрическая идентификация — сотрудники должны проходить сканирование отпечатков пальцев. Также введена политика запрета на подключение к интернету по умолчанию — любые внешние соединения требуют отдельного разрешения.

Компания также усилила физическую охрану дата-центров и расширила отдел кибербезопасности, чтобы предотвратить как внешние, так и внутренние угрозы. Хотя официально основной причиной называется опасение перед действиями иностранных конкурентов, не исключено, что меры связаны и с участившимися утечками, а также борьбой за сотрудников между американскими ИИ-компаниями.