Исследователи MIT нашли способ защитить данные без потери точности ИИ

Исследователи MIT нашли способ защитить данные без потери точности ИИ

Исследователи разработали инновационный фреймворк, основанный на новой метрике приватности PAC Privacy. Который позволяет сохранять эффективность ИИ-моделей при одновременной защите чувствительной информации от злоумышленников.

Традиционно методы защиты конфиденциальных данных, таких как адреса клиентов, медицинские снимки или финансовые записи, негативно влияли на точность работы ИИ-моделей. Однако команда MIT не только решила эту проблему, но и значительно улучшила вычислительную эффективность своего метода.

Исследователи создали формальный шаблон, позволяющий приватизировать практически любой алгоритм без необходимости доступа к его внутренней структуре. Важным открытием стало то, что более “стабильные” алгоритмы легче поддаются приватизации с помощью нового метода. Под стабильностью понимается способность алгоритма сохранять согласованность прогнозов даже при небольших изменениях в обучающих данных.

“Обычно мы рассматриваем устойчивость и приватность как не связанные или даже конфликтующие с созданием высокопроизводительного алгоритма факторы. Сначала мы создаем работающий алгоритм, затем делаем его устойчивым, а потом – приватным. Мы показали, что это не всегда правильный подход. Если вы создаете алгоритм, эффективно работающий в различных условиях, то приватность можно получить практически бесплатно”, – объясняет Маюри Шридхар, аспирантка MIT и ведущий автор исследования.

Новый фреймворк PAC Privacy уже успешно применен для приватизации нескольких классических алгоритмов анализа данных и задач машинного обучения.

Ирина Задорожная
Ирина Задорожная

Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.