Выпуск ожидается уже через «несколько недель». По имеющейся информации, Meta* особенно сосредоточена на разработке возможности прерывания модели во время воспроизведения речи, аналогично Voice Mode от OpenAI для ChatGPT и Gemini Live от Google. На конференции Morgan Stanley главный директор по продуктам Meta Крис Кокс заявил, что Llama 4 будет «омни-моделью», способной нативно интерпретировать и генерировать как речь, так и текст и другие типы данных.
Успех открытых моделей от китайской ИИ-лаборатории DeepSeek, которые работают на уровне или даже лучше моделей Llama от Meta, перевел разработку Llama в режим форсированного развития. Сообщается, что Meta в срочном порядке создала специальные рабочие группы, чтобы разобраться, как DeepSeek удалось снизить стоимость запуска и развертывания моделей.
Эксперты отмечают, что этот шаг Meta является прямым ответом на растущую конкуренцию в сфере ИИ, где голосовые интерфейсы становятся ключевым направлением для привлечения массового пользователя. Новые возможности Llama 4 могут значительно усилить позиции Meta в гонке за доминирование на рынке инструментов искусственного интеллекта.
*признана экстремистской и запрещена в РФ