Бывшие исследователи DeepMind представили этичную ИИ-модель

Лос-анджелесский стартап Moonvalley объявил о публичном релизе своей ИИ-модели Marey для генерации видео, которая ранее была доступна только в бета-версии. В отличие от стандартных text-to-video инструментов, разработка предлагает «гибридный» подход, обеспечивающий кинематографистам более глубокий контроль над созданием контента.

Ключевое преимущество Marey заключается в этичном подходе к обучению — модель тренировалась исключительно на данных с открытыми лицензиями. Это значительно снижает юридические риски для кинематографистов, которые стремятся избежать возможных исков, связанных с использованием сгенерированного ИИ контента.

Пользователи могут генерировать видеоклипы длительностью до пяти секунд, что соответствует текущим отраслевым стандартам для публичных видеогенераторов.

Техническая состоятельность решения обеспечивается экспертизой основателей — бывших исследователей DeepMind, участвовавших в разработке собственной модели генерации видео Google.

Marey демонстрирует продвинутое «понимание» трехмерного пространства и физических взаимодействий, что сближает ее с такими моделями как Google Veo 3 и непубличная Sora от OpenAI.

«Marey способна выполнять сложные трансформации видеоконтента с сохранением физически корректных взаимодействий. Например, видео бизона, бегущего через травяные равнины, может быть преобразовано в сцену с Cadillac, мчащимся через ту же среду, причем трава и грунт будут реалистично реагировать на движение автомобиля», — говорит CEO и соучредитель Moonvalley Наим Талукдар.

 

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.