Tune-A-Video:用于文本到视频生成的图像扩散模型的One-shot Tuning

news/2024/11/17 9:50:44/

Tune-A-Video: One-Shot Tuning of Image Diffusion Models for Text-to-Video Generation

Fig 1. Tune-A-Video:一种使用文本视频对和预训练的T2I模型生成T2V 的新方法。

Project:https://tuneavideo.github.io
原文链接:Tnue-A-Video:用于文本到视频生成的图像扩散模型的One-shot Tuning (by 小样本视觉与智能前沿)

目录

文章目录

  • Tune-A-Video: One-Shot Tuning of Image Diffusion Models for Text-to-Video Generation
    • 01 现有工作的不足?
    • 02 文章解决了什么问题?
    • 03 关键的解决方案是什么?
    • 04 主要的贡献是什么?
    • 05 有哪些相关的工作?
    • 06 方法具体是如何实现的?
      • Network Inflation
      • Fine-Tuning and Inference
        • 1)Model fine-tuning
        • 2)基于DDIM反演的结构指导
    • 07 实验结果和对比效果如何?
      • Applications
        • 1)Object editing.
        • 2)Background change.
        • 3)Style transfer.
        • 4)个性化可控生成
      • 定性结果
      • 定量结果
    • 08 消融研究告诉了我们什么?
    • 09 这个工作还是可以如何优化?
    • 10 结论

01 现有工作的不足?

为了复制文本到图像(T2I)生成的成功,最近的工作使用大规模视频数据集来训练文本到视频(T2V)生成器。尽管他们的结果很有希望,但这种范式在计算上是昂贵的。

Fig 2. 对预训练的 T2I 模型的观察:1)它们可以生成准确地表示动词术语的静态图像。2) 将空间自注意力扩展到时空注意力会在帧之间产生一致的内容。

02 文章解决了什么问题?

我们提出了一种新的T2V生成设置-单次视频调优,其中只有一个文本视频对。我们的模型建立在最先进的T2I扩散模型上,该模型是在大量图像数据上预训练的。

03 关键的解决方案是什么?

我们引入了Tune-A-Video,它涉及定制的时空注意机制和有效的一次性调整策略。在推理中,我们采用DDIM反演为采样提供结构指导。

04 主要的贡献是什么?

  • 我们为 T2V 生成引入了 One-Shot Video Tuning 的新设置,消除了使用大规模视频数据集进行训练的负担。
  • 我们提出了 Tune-A-Video,这是第一个使用预训练的 T2I 模型生成 T2V 的框架。
  • 我们提出了有效的注意力调整和结构反转,显着提高了时间一致性。

05 有哪些相关的工作?

  • Text-to-Image diffusion models.
  • Text-to-Video generative models.
  • Text-driven video editing.
  • Generation from a single video.

06 方法具体是如何实现的?

Fig 3. Tune-A-Video的高级概述。给定一个字幕视频,我们为 T2V 建模微调预训练的 T2I 模型(例如,Stable diffusion)。在推理过程中,我们生成新的视频来表示文本提示中的编辑,同时保留输入视频的时间一致性。

Network Inflation

spatial self-attention mechanism:


其中, z v i z_{v_i} zvi 是帧 v i v_i vi对应的潜码表示。 W ∗ W^* W是将输入投影到查询、键和值的可学习矩阵,d 是键和查询特征的输出维度。

我们提出使用稀疏版本的因果注意机制(causal attention mechanism),其中在帧 z v i z_{v_i} zvi 和帧 z v 1 z_{v_1} zv1 z v i − 1 z_{v_{i-1}} zvi1 之间计算注意矩阵,保持低计算复杂度在 O ( 2 m ( N ) 2 ) O(2m(N)^2) O(2m(N)2)
我们实现Attention(Q,k,V)如下:


其中 [ ⋅ ] [\cdot] []表示连接操作,视觉描述见图5。

Fig 5. ST-Attn:帧vi的潜在特征,前一帧vi−1和v1被投影到queryQ、key K和value V。输出是值的加权和,由查询和关键特征之间的相似性加权。我们强调更新的参数 WQ。

Fine-Tuning and Inference

1)Model fine-tuning

我们微调整个时间自注意力 (T-Attn) 层,因为它们是新添加的。此外,我们建议通过更新交叉注意力中的查询投影来细化文本-视频对齐(Cross-Attn)。在实践中,与完全调优[39]相比,微调注意块在计算上是有效的,同时保留了预训练的T2I扩散模型的原始特性。我们在标准ldm[37]中使用相同的训练目标。图4 说明了带有突出显示可训练参数的微调过程。

Fig 4. Tune-A-Video 的流程:给定一个文本-视频对(例如,“一个人正在滑雪”)作为输入,我们的方法利用预训练的 T2I 扩散模型来生成 T2V。在微调期间,我们使用标准的扩散训练损失更新注意块中的投影矩阵。在推理过程中,我们从输入视频倒置的潜在噪声中采样一个新的视频,由编辑后的提示引导(例如,“Spider Man 在海滩上冲浪,卡通风格”)。

2)基于DDIM反演的结构指导

通过没有文本条件的DDIM反演得到源视频V的潜在噪声。该噪声作为DDIM采样的起点,由编辑后的提示 T ∗ \mathcal{T}^* T指导。输出视频 V ∗ \mathcal{V}^* V 由下式给出:

07 实验结果和对比效果如何?

Applications

1)Object editing.

我们的方法的主要应用之一是通过编辑文本提示来修改对象。这允许轻松替换、添加或删除对象。图 6 显示了一些示例.

Fig 6. 实验结果

2)Background change.

我们的方法还允许用户更改视频背景(即对象所在的位置),同时保留对象运动的一致性。例如,我们可以通过添加新位置/时间描述并将图 7 中的国家侧道路视图更改为海洋视图,将图 6 中滑雪人的背景修改为“海滩上”或“太阳落下”。

Fig 7. 评估方法之间的定性比较

3)Style transfer.

由于预训练 T2I 模型的开放域知识,我们的方法将视频转换为各种难以仅从视频数据中学习的风格(12)。例如,我们通过将全局样式描述符附加到提示中,将现实世界的视频转换为漫画风格(图 6,或 Van Gogh风格(图 10)。

Table 1. 定量评估.

4)个性化可控生成

我们的方法可以很容易地与个性化的T2I模型集成(例如,DreamBooth[39],它以3-5张图像作为输入,并返回一个个性化的T2I模型),直接对它们进行细化。例如,我们可以使用“现代迪士尼风格”或“土豆头先生”个性化的DreamBooth来创建特定风格或主题的视频(图11)。我们的方法还可以与T2I适配器[29]和ControlNet[52]等条件T2I模型集成,在不需要额外训练成本的情况下对生成的视频进行不同的控制。例如,我们可以使用一系列人体姿势作为控制来进一步编辑运动(例如,图1中的舞蹈)。

定性结果

我们在图7中给出了我们的方法与几个基线的视觉比较。 相比之下,我们的方法生成了时间连贯的视频,保留了输入视频中的结构信息,并与编辑过的单词和细节保持一致。另外的定性比较可以在图12中找到。

定量结果

我们通过automatic metrics和用户研究来根据基线量化我们的方法,并在表1中报告框架一致性和文本可信度。

08 消融研究告诉了我们什么?

我们在Tune-A-Video中进行了一项消融研究,以评估时空注意(ST-Attn)机制、DDIM反演和微调的重要性。每个设计都是单独的,以分析其影响。结果如图8所示。

Fig 8. Ablation study.
这些结果表明,我们所有的关键设计都有助于我们方法的成功结果。

09 这个工作还是可以如何优化?

图9给出了输入视频中包含多个目标并出现遮挡时,我们的方法失败的情况。这可能是由于T2I模型在处理多个对象和对象交互方面的固有局限性。一个潜在的解决方案是使用附加的条件信息,如深度,使模型能够区分不同的对象及其相互作用。这方面的研究要留待将来研究。

Fig 9. limitations.

10 结论

在本文中,我们介绍了T2V生成的一项新任务–one-shot视频调优。该任务涉及仅使用单个文本视频对和预训练的T2I模型来训练T2V生成器。我们提出Tune-A-Video,一个简单而有效的框架,用于文本驱动的视频生成和编辑。为了生成连续视频,我们提出了一种有效的调优策略和结构反演,可以生成时间相干视频。大量的实验证明了我们的方法在广泛的应用中取得了显著的效果。

原文链接:Tnue-A-Video:用于文本到视频生成的图像扩散模型的One-shot Tuning (by 小样本视觉与智能前沿)


http://www.ppmy.cn/news/675308.html

相关文章

使用C#和RabbitMQ发送和接收消息

通过NuGet安装RabbitMQ.Client 以下是一个简单的示例代码,演示如何使用 C# 和 RabbitMQ 客户端库来发送和接收消息: using RabbitMQ.Client; using RabbitMQ.Client.Events; using System; using System.Text;public class Program {public static voi…

某A的工口游戏创作者体验记(下)

差不多已经上班一周的某A今天也一边打着哈欠一边随着电车摇摆着。满怀着到目前为止还连一件正经的工作都没有接到的不安说起来到现在为止为公司做过的事情,除了更新主页上的日志,和给被毙掉的巫女的企划收集资料以外就没有了。如果是个厚脸皮的人的话可能…

网吧母盘制作(精华)

网吧母盘制作其本流程: 系统流程表 ├—第一部份 系统安装 │ ├—系统分区 │ ├—WINXPSP2系统安装 │ ├—WINXPSP2系统补丁 │ ├—硬件驱动 | ├—系统其本的设置 | ├—备份原始镜像(预防安装其它软件而造成系统出错) │ ├—第二部…

leetcode题目1481. 不同整数的最少数目

题目 不同整数的最少数目 给你一个整数数组 arr 和一个整数 k 。现需要从数组中恰好移除 k 个元素,请找出移除后数组中不同整数的最少数目。 示例 1: 输入:arr [5,5,4], k 1 输出:1 解释:移除 1 个 4 &#xff0c…

蔡明介:大器晚成的台湾IC设计教父

http://hi.baidu.com/hieda/blog/item/0cb3604cd73ca9fad72afce7.html Mr. Ming-Kai Tsai(蔡明介) Ming-Kai Tsai serves as the chairman of MediaTek Inc. Tsai was one of the founding management team when MediaTek spun off from UMC in 1997, an…

HBase(番外):常见问题

1 Could not find or load main class org.apache.hadoop.mapreduce.v2.app.MRAppMaster (1)找到$HADOOP_HOME/etc/mapred-site.xml,增加以下配置 <property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}<…

springboot项目外卖管理 day08-缓存优化

文章目录 一、缓存优化问题说明环境搭建导入maven坐标配置yml文件设置序列化器&#xff0c;编写配置类 缓存短信验证码缓存菜品数据实现思路 SpringCacheSpring Cache介绍Spring Cache常用注解Spring Cache使用方式 缓存套餐数据实现思路 一、缓存优化 问题说明 环境搭建 导入…

校园网连不上,火绒检测dns错误但修复不了,360直接搞定,nice!

校园网连不上&#xff0c;不断输密码还是没有网络&#xff0c;之前都是用火绒的断网修复&#xff0c;修复ip什么的还行&#xff0c;但是这次说dns异常&#xff0c;火绒修复不了&#xff0c;就下了360&#xff0c;直接修复&#xff0c;不得不说360的安全方面做的真的好&#xff…