В «Касперском» составили руководство по безопасной разработке ИИ

В «Касперском» составили руководство по безопасной разработке ИИ «Лаборатория Касперского» выпустила руководство, призванное помочь организациям снизить киберриски, связанные с технологиями искусственного интеллекта (ИИ). Документ был представлен на Форуме ООН по управлению интернетом в Эр-Рияде в декабре 2024 года. Руководство ориентировано на разработчиков, системных администраторов и команды DevOps и предлагает практические советы по предотвращению технических недостатков и операционных рисков.

В «Касперском» составили руководство по безопасной разработке ИИ

«Лаборатория Касперского» выпустила руководство, призванное помочь организациям снизить киберриски, связанные с технологиями искусственного интеллекта (ИИ). Документ был представлен на Форуме ООН по управлению интернетом в Эр-Рияде в декабре 2024 года. Руководство ориентировано на разработчиков, системных администраторов и команды DevOps и предлагает практические советы по предотвращению технических недостатков и операционных рисков.

Руководство, созданное при участии ведущих экспертов, охватывает ключевые аспекты разработки, внедрения и обеспечения безопасности систем ИИ. В нем подчеркивается важность защиты моделей ИИ, особенно использующих системы сторонних производителей, для предотвращения утечки данных и ущерба репутации. Среди основных рекомендаций — обучение специфическим угрозам ИИ, моделирование угроз, защита облачных сред, защита цепочек поставок и регулярное тестирование моделей ИИ.

В «Касперском» также рекомендуют использовать такие методы, как обнаружение аномалий, для защиты компонентов ИИ от конкретных угроз.

Полный текст руководства доступен на сайте “Касперского”.