Alibaba выпустила Qwen3.6-35B-A3B — открытую языковую модель с нестандартной архитектурой. В ней 35 миллиардов параметров, но одновременно работают только 3 миллиарда. Это так называемая смесь экспертов (MoE): модель активирует лишь нужную часть нейронной сети под каждую задачу.
Результат — дешевле в запуске, но без заметной потери качества. На практике Qwen3.6-35B-A3B обошёл Google Gemma 4-31B на каждом из перечисленных кодовых бенчмарков. На SWE-bench Verified — 73.4 против 52.0 у Gemma 4. На Terminal-Bench 2.0 — 51.5 против 42.9. Это тест на реальную работу с кодом в терминале, а не просто написание функций.
На задачах по рассуждению картина та же. GPQA — 86.0 против 84.3, AIME26 — 92.7 против 89.2. Alibaba также утверждает, что модель не уступает Claude Sonnet 4.5 в работе с изображениями и видео.
Модель поддерживает два режима: «с размышлением» и без. В первом она думает шаг за шагом перед ответом — это лучше для сложных задач, но медленнее. Во втором отвечает сразу.
Попробовать можно прямо сейчас: через Qwen Studio, по API под названием Qwen3.6 Flash в Alibaba Cloud, или скачать веса с Hugging Face и ModelScope.
Это второй релиз серии за короткое время — раньше вышла более крупная модель Qwen3.6-Plus. Открытые модели Alibaba стабильно теснят закрытые флагманы на технических бенчмарках — и делают это с меньшими вычислительными затратами.