Исследователи разработали инновационный фреймворк, основанный на новой метрике приватности PAC Privacy. Который позволяет сохранять эффективность ИИ-моделей при одновременной защите чувствительной информации от злоумышленников.
Традиционно методы защиты конфиденциальных данных, таких как адреса клиентов, медицинские снимки или финансовые записи, негативно влияли на точность работы ИИ-моделей. Однако команда MIT не только решила эту проблему, но и значительно улучшила вычислительную эффективность своего метода.
Исследователи создали формальный шаблон, позволяющий приватизировать практически любой алгоритм без необходимости доступа к его внутренней структуре. Важным открытием стало то, что более «стабильные» алгоритмы легче поддаются приватизации с помощью нового метода. Под стабильностью понимается способность алгоритма сохранять согласованность прогнозов даже при небольших изменениях в обучающих данных.
«Обычно мы рассматриваем устойчивость и приватность как не связанные или даже конфликтующие с созданием высокопроизводительного алгоритма факторы. Сначала мы создаем работающий алгоритм, затем делаем его устойчивым, а потом – приватным. Мы показали, что это не всегда правильный подход. Если вы создаете алгоритм, эффективно работающий в различных условиях, то приватность можно получить практически бесплатно», – объясняет Маюри Шридхар, аспирантка MIT и ведущий автор исследования.
Новый фреймворк PAC Privacy уже успешно применен для приватизации нескольких классических алгоритмов анализа данных и задач машинного обучения.