划重点:
⭐️ 利用预训练的图像到视频模型,编辑单帧就能扩散到整个视频
⭐️ 包括粗略运动提取和外观细化两个关键过程
⭐️保持外观和运动与原始视频的一致性,减少质量损失的跳跃间隔策略
靠谱客(kaopuke.com)6月6日消息:近年来,扩散模型在图像和视频编辑方面的出色生成能力引发了广泛研究。与图像编辑相比,视频编辑在时间维度上面临额外挑战,而图像编辑已经见证了更多种类、高质量方法以及像 Photoshop 这样更强大的软件的发展。
针对这一差距,研究人员引入了一种新颖且通用的解决方案,通过使用预训练的图像到视频模型,将图像编辑工具的适用范围扩展到视频中,并将编辑从单帧传播到整个视频。他们的方法被称为 I2VEdit,能够根据编辑的程度自适应地保留源视频的视觉和运动完整性,有效处理全局编辑、局部编辑和适度形状变化,而现有方法无法完全实现。
产品入口:https://top.aibase.com/tool/i2vedit
该方法的核心包括两个主要过程:粗略运动提取,用于将基本运动模式与原始视频进行对齐;外观细化,用于使用细粒度的注意力匹配进行精确调整。
他们还结合了跳帧策略,以减轻跨多个视频剪辑的自回归生成带来的质量下降。实验结果表明,他们的框架在细粒度视频编辑方面表现出卓越性能,证明了其产生高质量、时间上连贯的输出的能力。
在应用上,I2VEdit可以实现视频编辑多种牛逼的视觉效果,比如:
虚拟试穿,使用 I2VEdit可以让虚拟试穿上升到新的高度,编辑源视频中的可穿戴对象。
主题替换,可以替换源视频的主题。
风格转换,使用 I2VEdit,可以更改源视频的风格。
(举报)
发表评论取消回复