Alibaba выпустила серию моделей Qwen 3.5 Medium. Команда Qwen опубликовала четыре модели: Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B и Qwen3.5-27B. Веса трех из них уже доступны на Hugging Face под лицензией Apache 2.0.
Главный сюрприз серии — модель Qwen3.5-35B-A3B. По тестам она обходит Qwen3-235B-A22B-2507, хотя та модель была заметно крупнее. У старой модели было 22 миллиарда активных параметров, а у новой — только 3 миллиарда. Разница в эффективности составляет больше чем 7 раз. Это значит, что новая модель выдает лучший результат при гораздо меньших вычислительных затратах. Такой результат стал возможен за счет архитектуры с разреженной активацией, где в работе одновременно участвует только часть параметров.
Узнать подробнее про клуб ShareAI
Qwen3.5-Flash — это готовая к работе версия 35B-A3B. Она создана для агентных сценариев, где модель сама выполняет задачи и вызывает внешние инструменты. Из коробки доступно контекстное окно в 1 миллион токенов и нативная поддержка вызова функций. Такой объем контекста позволяет работать с большими базами кода или объемными документами напрямую — без построения отдельных RAG-систем. Модель держит все нужные данные в памяти за один раз и не теряет связь между частями текста.
Старшие модели серии — Qwen3.5-122B-A10B и Qwen3.5-27B — нацелены на сложные задачи. Это многошаговое планирование, длинные цепочки рассуждений и выполнение инструкций на протяжении долгого диалога. При обучении применялся четырехэтапный процесс с холодным стартом через длинный CoT и обучением с подкреплением на основе внешних сигналов оценки качества.
Модель 122B-A10B использует только 10 миллиардов активных параметров из 122 миллиардов общих. По логической связности ответов она держится наравне с более тяжелыми плотными моделями, у которых все параметры активны постоянно.
Qwen3.5-Flash доступна только через Model Studio от Alibaba Cloud. Цена — около 10 центов за миллион входных токенов и 40 центов за миллион выходных. Остальные модели серии можно скачать и запустить самостоятельно.

