Китайская MiniMax выпускает модель M1 с рекордной контекстной памятью

Китайская технологическая компания MiniMax представила новую «рассуждающую» языковую модель M1, способную обрабатывать контекстное окно размером до 1 млн токенов, что соответствует примерно 750 тысячам слов. Это технологическое достижение устанавливает новый стандарт в обработке сверхдлинного контекста, значительно превосходя возможности существующих решений.

Сравнительный анализ демонстрирует преимущество MiniMax M1 над другими китайскими моделями: в тестах на программирование и математику она превзошла DeepSeek-R1 и Qwen3-235B от Alibaba, хотя и уступила западным разработкам — o3 от OpenAI и Gemini 2.5 Pro от Google. Контекстное окно DeepSeek-R1, одного из ближайших конкурентов, ограничено 64 тысячами токенов, что составляет лишь 6,4% от возможностей новой модели.

Ключевым техническим нововведением M1 является механизм «молниеносного внимания» (lightning attention), оптимизирующий обработку длинных запросов.

По данным разработчиков, при генерации 100 тысяч символов MiniMax M1 использует на 25% меньше вычислительных ресурсов, чем DeepSeek-R1. Эта оптимизация критически важна для практического применения моделей с обширным контекстным окном, требующих значительных вычислительных мощностей.

MiniMax придерживается политики открытости: бесплатная демоверсия M1 доступна на платформе HuggingFace, а исходный код опубликован на GitHub. Такой подход контрастирует с тенденцией к закрытости передовых моделей и может способствовать ускорению исследований в области генеративного искусственного интеллекта. Другие модели компании интегрированы в чат-бот и доступны для тестирования.

Автор: Анна Маркова
Специализируется на технологической журналистике с фокусом на искусственный интеллект. Пишет о реальном применении ИИ в бизнесе и повседневной жизни.