Китайская технологическая компания MiniMax представила новую «рассуждающую» языковую модель M1, способную обрабатывать контекстное окно размером до 1 млн токенов, что соответствует примерно 750 тысячам слов. Это технологическое достижение устанавливает новый стандарт в обработке сверхдлинного контекста, значительно превосходя возможности существующих решений.
Сравнительный анализ демонстрирует преимущество MiniMax M1 над другими китайскими моделями: в тестах на программирование и математику она превзошла DeepSeek-R1 и Qwen3-235B от Alibaba, хотя и уступила западным разработкам — o3 от OpenAI и Gemini 2.5 Pro от Google. Контекстное окно DeepSeek-R1, одного из ближайших конкурентов, ограничено 64 тысячами токенов, что составляет лишь 6,4% от возможностей новой модели.
Узнать подробнее про клуб ShareAI
Ключевым техническим нововведением M1 является механизм «молниеносного внимания» (lightning attention), оптимизирующий обработку длинных запросов.
По данным разработчиков, при генерации 100 тысяч символов MiniMax M1 использует на 25% меньше вычислительных ресурсов, чем DeepSeek-R1. Эта оптимизация критически важна для практического применения моделей с обширным контекстным окном, требующих значительных вычислительных мощностей.
MiniMax придерживается политики открытости: бесплатная демоверсия M1 доступна на платформе HuggingFace, а исходный код опубликован на GitHub. Такой подход контрастирует с тенденцией к закрытости передовых моделей и может способствовать ускорению исследований в области генеративного искусственного интеллекта. Другие модели компании интегрированы в чат-бот и доступны для тестирования.