По информации Yandex, всего для пользователей доступны около 20 больших языковых (LLM) и визуально-языковых (VLM) моделей. Включая такие передовые разработки как Deepseek 2 VL Tiny и Gemma3 27B. И совсем скоро – VLM-модель Яндекса, которая уже используется в таких сервисах как Алиса, Нейроэксперт и Поиск.
Также станет доступной возможность пакетной обработки большого массива изображений в рамках сервиса Yandex Cloud AI Studio. Технология позволяет за один раз отправить в нейросеть множество запросов, что критически важно для больших объемов визуальных данных.
Эти инструменты будут особенно полезны для анализа и классификации документов, а также коммуникации с клиентами. Например, финансовые организации и представители ритейла смогут ежедневно использовать нейросети для анализа клиентских комментариев или систематизации запросов в службу поддержки.
Система тарификации для LLM- и VLM-моделей при использовании на крупных объемах данных начинается от 200 тысяч токенов, что эквивалентно примерно 200 изображениям или 360 страницам текста. Важным преимуществом является то, что пакетная обработка обойдется бизнесу вдвое дешевле, чем в стандартном режиме, а результат будет доступен в течение одного дня.
«Каждую неделю мы видим запуск новых ML-моделей, при этом каждая из них может лучше справляться с теми или иными нишевыми задачами. Поэтому бизнесу важно иметь доступ к большому разнообразию моделей и возможность протестировать их в своих бизнес-сценариях», – отмечает руководитель продуктового ML-направления Артур Самигуллин.
Среди уже доступных моделей на платформе представлены Qwen2.5, а также рассуждающие нейросети QwQ и DeepSeek R1. Компания обещает, что по мере появления новых опенсорсных моделей они будут оперативно развертываться на платформе Yandex Cloud AI Studio.