Meta ускоряет разработку Llama 4 с расширенными голосовыми функциями

Выпуск  ожидается уже через «несколько недель». По имеющейся информации, Meta* особенно сосредоточена на разработке возможности прерывания модели во время воспроизведения речи, аналогично Voice Mode от OpenAI для ChatGPT и Gemini Live от Google. На конференции Morgan Stanley главный директор по продуктам Meta Крис Кокс заявил, что Llama 4 будет «омни-моделью», способной нативно интерпретировать и генерировать как речь, так и текст и другие типы данных.

Успех открытых моделей от китайской ИИ-лаборатории DeepSeek, которые работают на уровне или даже лучше моделей Llama от Meta, перевел разработку Llama в режим форсированного развития. Сообщается, что Meta в срочном порядке создала специальные рабочие группы, чтобы разобраться, как DeepSeek удалось снизить стоимость запуска и развертывания моделей.

Эксперты отмечают, что этот шаг Meta является прямым ответом на растущую конкуренцию в сфере ИИ, где голосовые интерфейсы становятся ключевым направлением для привлечения массового пользователя. Новые возможности Llama 4 могут значительно усилить позиции Meta в гонке за доминирование на рынке инструментов искусственного интеллекта.

*признана экстремистской и запрещена в РФ

 

 

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.