Когда-то аниматоры работали кадр за кадром, создавая иллюзию движения из статичных изображений. Теперь они могут просто загрузить несколько изображений, и ИИ сделает остальное.
На этой неделе Google DeepMind представил свою новейшую модель для генерации видео — Veo 3.1, доступную через Flow, Vertex AI и Gemini API. Эта модель значительно упрощает видеопроизводство, сочетая разные изображения в естественно выглядящие видео. Veo 3.1 также позволяет пользователям загружать всего две картинки — первую и последнюю в последовательности, автоматически заполняя промежуток видео.
Среди новинок — способность генерировать видео с улучшенной аудиодорожкой и мнимыми текстурами, что делает видео более реальными. Например, с помощью Veo 3.1 можно создать видео, где женщина в нарядной одежде гуляет по роскошной комнате, используя различные изображения. Google также расширил редактирование видео: пользователи могут добавлять и изменять тени и освещение.
По словам компании, «Veo 3.1 способен к более глубокому пониманию истории и кинематографических стилей», открывая перед пользователями новые горизонты для творчества.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
