DeepSeek выпустил две предварительные модели серии V4: DeepSeek-V4-Pro и DeepSeek-V4-Flash. Обе работают с контекстом до миллиона токенов и используют архитектуру Mixture of Experts — когда активируется только часть параметров вместо всей сети сразу.
Pro устанавливает новый рекорд среди открытых моделей: 1,6 триллиона параметров суммарно, из них активны 49 миллиардов. Это больше, чем у Kimi K2.6 (1,1 трлн) и более чем вдвое больше прежнего DeepSeek V3.2 (685 млрд). Flash поменьше — 284 млрд суммарно, 13 млрд активных.
Главное — цена. DeepSeek-V4-Pro стоит $1,74 за миллион входящих токенов и $3,48 за исходящие. Для сравнения: Gemini 3.1 Pro — $2 и $12, GPT-5.4 — $2,50 и $15, Claude Sonnet 4.6 — $3 и $15. Flash ещё дешевле — $0,14 входящих, что ниже даже GPT-5.4 Nano от OpenAI ($0,20).
Такую цену обеспечивает архитектурная эффективность. При запросах с контекстом в миллион токенов V4-Pro задействует лишь 27% вычислений и 10% KV-кэша по сравнению с V3.2. Flash ещё экономичнее — 10% и 7%.
По качеству авторы бумаги сами оценивают своё положение: Pro отстаёт от GPT-5.4 и Gemini-3.1-Pro примерно на 3–6 месяцев разработки. Но при существенной разнице в цене это часто не принципиально.
Обе модели вышли под лицензией MIT — скачать, дообучить и использовать коммерчески можно без ограничений. Pro весит 865 ГБ на Hugging Face, Flash — 160 ГБ. Квантизованные версии для запуска на потребительском железе появятся в ближайшие дни.