Microsoft вводит классификацию 1900+ ИИ-моделей на платформе Azure

Microsoft меняет методологию оценки ИИ в своей облачной инфраструктуре, расширяя параметрическую систему ранжирования ИИ-моделей критерием «безопасность» и интегрирует этот показатель в существующую аналитическую платформу Model Leaderboard в сервисе Azure Foundry.

Имплементация дополнительного критерия безопасности основывается на методологии эталонного тестирования ToxiGen, представляющего собой комплексный инструментарий для идентификации потенциально деструктивных паттернов в генеративных моделях искусственного интеллекта.

Технические аналитики интерпретируют данный шаг как многовекторное стратегическое решение. С одной стороны, это укрепляет позиции Microsoft в конкурентной борьбе за корпоративных клиентов, для которых параметры безопасности становятся критическим фактором при выборе облачных решений. С другой — компания демонстрирует проактивный подход к соответствию будущим регуляторным требованиям.

Масштаб данной инициативы определяется объемом корпоративного каталога Microsoft, насчитывающего более 1900 моделей искусственного интеллекта различного назначения и архитектуры. Внедрение унифицированного стандарта безопасности для столь диверсифицированного спектра технологических решений представляет собой беспрецедентную задачу в условиях отсутствия общепринятых глобальных критериев.

Регуляторный контекст инициативы Microsoft определяется приближающимся вступлением в силу законодательства Европейского Союза об искусственном интеллекте, запланированным на конец текущего года. Данный нормативный акт установит обязательное требование к технологическим компаниям проводить комплексное тестирование нейросетевых моделей на предмет безопасности и социальных рисков.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.