Mistral представила Small 3 – компактную и быструю опенсорс ИИ-модель

Европейский ИИ-стартап Mistral AI представил новую языковую модель, которая, по заявлению компании, соответствует производительности моделей втрое большего размера при значительно меньших вычислительных затратах.

Mistral Small 3 имеет 24 миллиарда параметров и достигает 81% точности в стандартных тестах, обрабатывая 150 токенов в секунду. Модель выпущена под лицензией Apache 2.0, позволяющей бизнесу свободно модифицировать и развёртывать её.

«Мы считаем, что это лучшая модель среди всех моделей менее 70 миллиардов параметров, – заявил Гийом Лампль, научный директор Mistral. – Она фактически не уступает Meta’s Llama 3.3 70B, выпущенной пару месяцев назад, которая в три раза больше».

Анонс совпал с пристальным вниманием к затратам на разработку ИИ после заявлений китайского стартапа DeepSeek о создании конкурентоспособной модели всего за $5,6 млн. Mistral достигла улучшений в основном через оптимизацию обучения, а не наращивание вычислительной мощности. Модель обучена на 8 триллионах токенов (против 15 у конкурентов) и может работать на одном GPU, обрабатывая 80-90% типичных бизнес-задач.

Модель особенно интересна предприятиям, требующим локального развёртывания по соображениям конфиденциальности и надёжности, включая финансовые услуги, здравоохранение и производство.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.