Разработчики лаборатории Tongyi Lab от Alibaba представили нейросеть LHM (Large Animatable Human Reconstruction Model), которая обещает революционизировать процесс анимации персонажей в кино и играх. Эта модель использует видеореференсы для создания реалистичной анимации, что позволяет значительно повысить точность движений по сравнению с традиционными методами, где сначала создается статичное изображение, а затем оно анимируется.
Тем не менее, у LHM есть свои ограничения: она сталкивается с трудностями при смене ракурсов или резких изменениях поз персонажа. Разработчики уже работают над улучшением этой функции.
Чтобы протестировать LHM, пользователи могут загрузить модель с платформы HuggingFace, где бесплатная генерация видео ограничена 10 секундами. Для более точной анимации предлагается скачать код с GitHub и установить модель локально.
Эта инновационная технология открывает новые горизонты в мире анимации, делая процесс более доступным и эффективным.
