Новое исследование, проведенное учеными из Северо-Западного политехнического университета и Гонконгского политехнического университета, показало, что модели глубокого обучения (DL), используемые в системах дистанционного зондирования, подвержены как физическим, так и цифровым атакам. Несмотря на их широкое применение в правительственном разведывании, мониторинге окружающей среды и других сферах, эффективность этих технологий может быть серьезно подорвана.
Исследователи провели обзор существующих работ и разработали методику для оценки надежности различных моделей DL. В ходе экспериментов они выявили уязвимости, которые могут быть использованы злоумышленниками. Например, атаки с использованием шумов, таких как «соль-перец» и погодные условия, а также цифровые атаки, такие как метод градиентного спуска, показали, что модели могут легко ошибаться.
По словам ведущего автора исследования, профессора Шаохуи Мэя, важно, чтобы разработчики и пользователи технологий осознавали эти уязвимости и работали над повышением надежности моделей. Команда планирует дальнейшее улучшение своих методов оценки и тестирования для повышения безопасности DL-моделей в критически важных приложениях.
Jiawei Lian, Northwestern Polytechnical University