OmniHuman-1 enables the creation of highly realistic human animations from minimal inputs like a single image and audio.
更新时间:2025-02-05 18:12:44
OmniHuman-1是一种端到端的多模态条件人类视频生成框架,可以根据单张人类图像和运动信号(如音频、视频或音频与视频的组合)生成逼真的人类视频。它通过引入混合训练策略,克服了以往方法面临的高质量数据稀缺问题,使得模型能够从多种条件信号中受益。OmniHuman-1显著优于现有方法,在生成极其真实的人类视频时,尤其是从音频等较弱信号输入中,表现尤为出色。它支持任何纵横比的图像输入,无论是肖像、半身像还是全身图像,在不同场景下都能交付更具生命力和高质量的结果。
OmniHuman-1的使用方式非常简单。用户只需提供一张人类图像和相应的音频或视频信号,模型便可自动生成对应的人类视频。无论是单一的音频驱动,还是音频与视频结合的双重驱动,OmniHuman-1都能够高效生成真实的动画效果。用户可以灵活选择适合场景的输入条件,得到与实际情况相符的高质量人类视频。
OmniHuman-1的价格目前尚未公开,但该项目是由Bytedance团队领导开发,预计将针对研究人员和企业提供不同的授权和使用方式。更多信息可以联系项目团队。
OmniHuman-1由Bytedance公司开发。
OmniHuman-1的官方联系方式为:[email protected]。
OmniHuman-1在社交媒体上的最新动态: - Twitter: @OmniHumanLab - Instagram: @OmniHuman