Китайская компания MiniMax опубликовала свою флагманскую языковую модель MiniMax M2.7 на Hugging Face и ModelScope. Скачать её можно бесплатно — для некоммерческого использования лицензия открытая, для коммерческого нужно отдельно обращаться в компанию.
Модель содержит 229 миллиардов параметров и заточена под агентные задачи — то есть сценарии, где ИИ не просто отвечает на вопросы, а выполняет цепочки действий: анализирует проблему, пишет код, запускает тесты, сравнивает результаты и принимает решение.
На бенчмарке SWE-Pro, который измеряет способность модели решать реальные задачи из GitHub-репозиториев, M2.7 набрала 56,22%. На Terminal Bench 2 — 57,0%. По большинству тестов она обходит Gemini 3.1 Pro, а в части задач — Claude Opus 4.6 и GPT-5.4.
Независимая аналитическая платформа Artificial Analysis проверила эти заявления отдельно и подтвердила: в агентных сценариях M2.7 действительно превосходит Gemini 3.1 Pro Preview.
Интересна методология разработки. MiniMax использовала сам ИИ для обучения модели — в процессе система автоматически анализировала ошибки, вносила правки и тестировала результаты. Разработчики называют это «самоэволюцией».
Модель была анонсирована 18 марта 2026 года, а в открытый доступ вышла 12 апреля — почти через месяц после анонса. Это характерная для MiniMax схема: сначала API, потом открытые веса.
На фоне того, что большинство топовых моделей остаются закрытыми, выход 229B-параметрической модели с подтверждёнными агентными результатами — заметное событие для сообщества разработчиков.