Google выпустил VaultGemma — первую языковую модель компании, которая обучена с защитой от утечек обучающих данных. Открытый чекпойнт содержит 1 миллиард параметров и доступен на платформах Hugging Face и Kaggle.
VaultGemma создали с применением дифференциальной приватности. Эта технология добавляет «шум» в процесс обучения модели. Благодаря этому ни одна текстовая последовательность не влияет заметно на итоговые веса нейросети.
Узнать подробнее про клуб ShareAI
Такой подход решает важную проблему современных ИИ. Обычные языковые модели могут воспроизводить фрагменты из обучающих данных. В них часто попадает личная информация пользователей или конфиденциальные сведения. VaultGemma практически исключает такие утечки.
Пока это экспериментальная модель из семейства Gemma 2. По качеству ответов она находится на уровне GPT-2. Для Google на данном этапе главное — доказать работоспособность технологии приватности. В тестах VaultGemma не зафиксировали случаев явного копирования обучающих данных.
Особенность VaultGemma в том, что защита встроена в фундамент обучения. Это не дополнительный слой безопасности поверх готовой модели, а базовый принцип ее создания. Такой подход более надежен, чем попытки исправить проблемы уже обученной системы.
Когда разработчики улучшат производительность таких моделей, их можно будет использовать в критических сферах. Финансовые сервисы, медицина и другие области нуждаются в ИИ-помощниках с максимальной приватностью. VaultGemma показывает путь к созданию таких систем.
Модель основана на семействе Gemma 2 и представляет новый подход к обучению ИИ. Вместо того чтобы бороться с утечками после создания модели, Google заложил защиту на этапе обучения. Это может стать стандартом для будущих языковых моделей в чувствительных областях применения.