Искусственный интеллект должен был освободить нас от рутины. Но в 2025 году он внезапно превратился в… главный источник проблем. Я Сергей Крюков, эксперт НИР Груп, сегодня расскажу вам, как компании теряют сотни миллионов рублей из-за того, что ИИ стал любимой игрушкой не только сотрудников, но и злоумышленников.
30% всех утечек — дело рук сотрудников
Да-да, не вирусы, не хакеры из фильмов, а самые обычные офисные ребята, которые просто «попросили ИИ помочь с отчётом».
Аналитика НИР Груп показывает: около 30% утечек происходят из-за того, что сотрудники сами загружают внутренние документы в публичные ИИ-сервисы
Сергей Крюков
эксперт НИР Груп
Финансовые отчёты? Были.
Клиентские данные? Были.
Внутренние документы? О, ещё как.
joyreactor
25% компаний уже официально зафиксировали такие утечки. И всё это — просто потому, что человеку нужно быстрее закончить задачу. Проблема в том, что ИИ-сервисы находятся не внутри корпоративной инфраструктуры. Это как рассказывать секреты компании в такси — водитель вроде и молчит, но куда потом уедет эта информация — никто не знает.
ИИ Claude взломал собственную систему обучения и «стал злее»
Атаки на ИИ выросли на 48%: теперь бьют по мозгам системы
В 2025 году случилось новое: хакеры начали лезть в саму начинку — модели ИИ.
Количество успешных атак выросло на 48% всего за год. В арсенале злоумышленников появились совершенно новые приёмы:
инъекции промптов — когда модель заставляют игнорировать правила и выдавать секреты;
«отравление» данных — когда в ответы подмешивают вредоносный контент;
манипуляции контекстом — можно заставить модель принимать неверные решения.
ИИ Google дал инструкции по сборке… биологического оружия joyreactor
Если коротко: «мозг» компании становится объектом охоты.
ИИ помогает… хакерам? Да! Он сам генерирует вредоносный код
Оказывается, модели могут по незнанию:
предложить опасный SQL-запрос;
сгенерировать вредоносный JavaScript;
случайно подсказать, как удалить данные;
помочь подобрать пароль (буквально — идеально автоматизирует скучный подбор).
Благодаря игре в «угадайку» ChatGPT раскрыл ключи активации Windows
А иногда ИИ так хорошо имитирует человека, что обходит капчи, как будто за него работает самый терпеливый школьник на подработке. Особенно достается ритейлу.
joyreactor
Сотрудники загружают в ИИ данные по промо, а злоумышленники через хитрые запросы ищут дыры в логике акций — и используют результаты уже против компании.
На китайской DeepSeek R1 проверили 50 способов «взлома» ИИ. Сработали все
Обычные системы безопасности больше не работают
Антивирусы, контроль трафика, периметр — всё это не видит, что происходит внутри ИИ. А именно там сегодня и сидит главный риск. Это всё равно что поставить пять замков на дверь, но оставить окно открытым — и даже не подозревать, что у окна теперь тоже есть Wi-Fi и оно умеет разговаривать.
Одна атака — минус 100–200 млн ₽. А к 2027 году ущерб приблизится к 4 трлн ₽
Цифры — как холодный душ для бизнеса:
один инцидент обходится компаниям в 100–200 млн ₽;
для крупных игроков счёт идёт на десятки миллиардов;
к 2027 году суммарный ущерб от атак с участием ИИ достигнет 40 млрд $ (≈4 трлн ₽).
И да, такие случаи уже происходят. Самый громкий пример: взлом криптобиржи Balancer — украли 120 млн $ (≈12 млрд ₽), просто манипулируя работой алгоритмов.
Вывод простой и неприятный
ИИ не злодей сам по себе — опасность в том, что сотрудники слишком ему доверяют, он стал новой целью для атак, а привычные системы безопасности просто не видят, что происходит внутри модели. Сегодня ИИ — как мощный двигатель в машине: пока всё работает, ехать удобно, но стоит появиться малейшей неисправности, то последствия обходятся очень дорого, а ремонт оказывается куда больнее и затратнее, чем своевременная защита.