MiniMax M2.7: Китай выложил в открытый доступ 229-миллиардную модель, которая обходит Gemini 3.1 Pro

MiniMax M2.7: Китай выложил в открытый доступ 229-миллиардную модель, которая обходит Gemini 3.1 Pro

Китайская компания MiniMax опубликовала свою флагманскую языковую модель MiniMax M2.7 на Hugging Face и ModelScope. Скачать её можно бесплатно — для некоммерческого использования лицензия открытая, для коммерческого нужно отдельно обращаться в компанию.

Модель содержит 229 миллиардов параметров и заточена под агентные задачи — то есть сценарии, где ИИ не просто отвечает на вопросы, а выполняет цепочки действий: анализирует проблему, пишет код, запускает тесты, сравнивает результаты и принимает решение.

На бенчмарке SWE-Pro, который измеряет способность модели решать реальные задачи из GitHub-репозиториев, M2.7 набрала 56,22%. На Terminal Bench 2 — 57,0%. По большинству тестов она обходит Gemini 3.1 Pro, а в части задач — Claude Opus 4.6 и GPT-5.4.

Независимая аналитическая платформа Artificial Analysis проверила эти заявления отдельно и подтвердила: в агентных сценариях M2.7 действительно превосходит Gemini 3.1 Pro Preview.

Интересна методология разработки. MiniMax использовала сам ИИ для обучения модели — в процессе система автоматически анализировала ошибки, вносила правки и тестировала результаты. Разработчики называют это «самоэволюцией».

Модель была анонсирована 18 марта 2026 года, а в открытый доступ вышла 12 апреля — почти через месяц после анонса. Это характерная для MiniMax схема: сначала API, потом открытые веса.

На фоне того, что большинство топовых моделей остаются закрытыми, выход 229B-параметрической модели с подтверждёнными агентными результатами — заметное событие для сообщества разработчиков.

Юлия Самойлова
Юлия Самойлова

Пишет о технологиях искусственного интеллекта с 2019 года. Специализируется на материалах о практическом применении ИИ в различных отраслях.