Microsoft меняет методологию оценки ИИ в своей облачной инфраструктуре, расширяя параметрическую систему ранжирования ИИ-моделей критерием «безопасность» и интегрирует этот показатель в существующую аналитическую платформу Model Leaderboard в сервисе Azure Foundry.
Имплементация дополнительного критерия безопасности основывается на методологии эталонного тестирования ToxiGen, представляющего собой комплексный инструментарий для идентификации потенциально деструктивных паттернов в генеративных моделях искусственного интеллекта.
Технические аналитики интерпретируют данный шаг как многовекторное стратегическое решение. С одной стороны, это укрепляет позиции Microsoft в конкурентной борьбе за корпоративных клиентов, для которых параметры безопасности становятся критическим фактором при выборе облачных решений. С другой — компания демонстрирует проактивный подход к соответствию будущим регуляторным требованиям.
Масштаб данной инициативы определяется объемом корпоративного каталога Microsoft, насчитывающего более 1900 моделей искусственного интеллекта различного назначения и архитектуры. Внедрение унифицированного стандарта безопасности для столь диверсифицированного спектра технологических решений представляет собой беспрецедентную задачу в условиях отсутствия общепринятых глобальных критериев.
Регуляторный контекст инициативы Microsoft определяется приближающимся вступлением в силу законодательства Европейского Союза об искусственном интеллекте, запланированным на конец текущего года. Данный нормативный акт установит обязательное требование к технологическим компаниям проводить комплексное тестирование нейросетевых моделей на предмет безопасности и социальных рисков.