Компания заявляет о значительном прогрессе по сравнению с предыдущими версиями. Microsoft расширила свое семейство генеративных ИИ-моделей, представив новую разработку Phi-4. Главным фактором улучшения стало повышение качества тренировочных данных для решения математических задач.
Phi-4 относится к категории «малых» языковых моделей с 14 миллиардами параметров. Она будет конкурировать с аналогичными компактными моделями, такими как GPT-4o mini, Gemini 2.0 Flash и Claude 3.5 Haiku. Преимущество таких моделей заключается в более высокой скорости работы и меньшей стоимости использования, при этом их эффективность постоянно растет.
По информации Microsoft, существенный рост производительности Phi-4 достигнут благодаря использованию качественных синтетических датасетов в сочетании с данными, созданными людьми. Компания также применила ряд новых методов пост-обработки, детали которых пока не раскрываются.
Тема синтетических данных сейчас активно обсуждается в сообществе разработчиков ИИ. Генеральный директор Scale AI Александр Ванг недавно заявил в Twitter о достижении «стены предварительного обучения данными», что подтверждает появившиеся ранее сообщения о проблемах в этой области.
Примечательно, что Phi-4 стала первой моделью серии, выпущенной после ухода Себастьяна Бубека, бывшего вице-президента Microsoft по ИИ и ключевой фигуры в разработке моделей Phi. В октябре Бубек перешел на работу в OpenAI.
На данный момент доступ к Phi-4 строго ограничен. Модель доступна исключительно на недавно запущенной платформе Microsoft Azure AI Foundry и только для исследовательских целей по специальной лицензии Microsoft.