Ученые из Массачусетского технологического института (MIT) представили улучшенную методику защиты данных в моделях искусственного интеллекта (ИИ). С помощью новой разработки, основанной на метрике конфиденциальности PAC Privacy, они смогли обеспечить безопасность чувствительных данных, таких как медицинские изображения или финансовые записи, без значительных потерь в точности работы модели.
До этого, для защиты данных в ИИ, часто использовался метод добавления шума, что негативно сказывалось на точности модели. Однако новая версия PAC Privacy позволяет минимизировать этот шум, сохраняя высокую эффективность алгоритмов. Исследователи создали упрощенную схему, которая не требует глубокого вмешательства в структуру алгоритма, что делает ее применимой для множества различных задач.
Методика также доказала свою эффективность на стабильных алгоритмах, чьи предсказания не меняются значительно при изменении исходных данных. Устойчивость таких моделей облегчает их защиту и повышает точность работы.
Ученые утверждают, что теперь можно защищать данные с меньшими затратами на вычисления, при этом минимизируя потерю полезной информации. Важным открытием стало то, что если алгоритм более стабилен, его легче защитить, добавляя меньше шума.
Это исследование может стать основой для создания более защищенных и точных ИИ-систем, применяемых в различных областях, от медицины до финансов.