Специалисты Центрального университета разработали метод защиты моделей компьютерного зрения от несанкционированного использования. Подход позволяет внедрять защитные механизмы без переобучения уже готовых алгоритмов.
Технология основана на встраивании специальных «нейронов-детекторов», которые активируются только при наличии скрытого ключа в обрабатываемых данных. Дополнительные «нейроны-нарушители» могут целенаправленно вносить помехи в работу системы при отсутствии такого идентификатора. Вероятность случайного срабатывания защиты составляет менее 0,01%, отметили в пресс-службе вуза.
Разработка решает проблему подтверждения авторских прав на технологии искусственного интеллекта. В перспективе метод может быть адаптирован для больших языковых моделей и других типов ИИ-алгоритмов, что создаст условия для формирования защищенного рынка лицензирования.
Ранее президент России Владимир Путин заявил, что технологии генеративного искусственного интеллекта (ИИ) приобрели стратегическое значение.