AI视频技术Sora的全面解析

1. 背景

最近AI圈内乃至整个科技圈最爆的新闻莫过于OpenAI的Sora了,感觉热度甚至远超之前ChatGPT发布时的热度。OpenAI也是放出了Sora的技术报告(有一定的信息量,也留下了大量的想象空间)。

技术报告传送门: https://openai.com/research/video-generation-models-as-world-simulators

无论是文生图还是文生视频,很多这方面的工作其实都可以看成是自编码器的进阶版本,让我们从自编码器开始入手。

自编码器(Autoencoder):压缩大于生成

自编码器由编码器和解码器两个部分构成

编码器负责学习输入到编码的映射 ,将高维输入(例如图片)转化为低维编码

AI视频技术Sora的全面解析

解码器则学习编码到输出的映射 ,将这些低维编码还原为高维输出(例如重构的图片)

AI视频技术Sora的全面解析
AI视频技术Sora的全面解析

我们希望压缩前和还原后的向量尽可能相似(比如让它们的平均平方误差MSE尽可能小)

AI视频技术Sora的全面解析

这样就能让神经网络学会使用低维编码表征原始的高维向量(例如图片)。

那有了自编码器能够做生成吗,答案是可以的,只要留下解码器,我随便喂入一个低维编码,不就能够得到一个生成的高维向量了(例如图片)。(当然,这里可能生成一起奇奇怪怪的东西,因为这里对低维向量没有做出约束,自编码器通过将图片转化为数值编码再还原回图片的过程,可能导致对训练数据过拟合。结果就是,对于未见过的低维编码,解码器重构的图片质量通常不佳。因此自编码器更多用于数据压缩。)

变分自编码器(Variational Autoencoders):迈向更鲁棒地生成

自编码器不擅长图片生成是因为过拟合,那如果能够解决过拟合问题,不就能拿来生成图片了!

变分自编码器做的就是这么一件事:既然自编码器将图片编码为确定性的数值编码会导致过拟合,变分自编码器就将图片编码为一个具有随机性的概率分布,比如标准正态分布。 这样当模型训练好后,我们只要给解码器喂入采样自标准正态分布的低维向量,就能够生成较为“真实”的图片了。

AI视频技术Sora的全面解析

因此,变分自编码器除了希望编码前和解码后的样本尽可能相似(MSE尽可能小),还希望用于解码的数据服从标准正态分布,也就是低维编码的分布和标准正态分布的KL散度尽可能小,损失函数加上这么一项约束。

AI视频技术Sora的全面解析

变分自编码器中涉及到了从标准正态分布中进行采样,因此作者引入了一种参数化的技巧(也是为了误差能够反向传播),感兴趣的可以进一步了解。

此外,VQ-VAE、VQ-GAN 也是一些值得学习的工作。由于不影响对后续的理解,这里不再进行赘述。

变分自编码器减轻了自编码器过拟合的问题,也确实能够用来做图片的生成了,但是大家会发现用它生成图片通常会比较模糊。可以这样想一下,变分自编码器的编码器和解码器都是一个神经网络,编码过程和解码过程都是一步就到位了,一步到位可能带来的问题就是建模概率分布的能力有限/或者说能够对图片生成过程施加的约束是有限的/或者说“可控性”是比较低的。

去噪扩散概率模型(DDPM):慢工出细活

既然变分自编码器一步到位的编解码方式可能导致生成图片的效果不太理想,DDPM就考虑拆成多步来做,它将编码过程和解码过程分解为多步:

AI视频技术Sora的全面解析

因此,所谓的扩散模型由两个阶段构成

  • 前向扩散过程,比如给定一张照片,不断(也就是多步)往图片上添加噪声,直到最后这样图片看上去什么都不是(就是个纯噪声)
  • 反向去噪过程,给定噪声,不断执行去噪的这一操作,最终得到一张“真实好看”的照片

下图中从右往左就是前向扩散的过程,从左往右就是反向去噪的过程

AI视频技术Sora的全面解析

可以看到每一步的下标有一个,的范围从到,代表从数据集中采样出一张图片,前向过程在每一步从高斯分布中采样出噪声叠加到时刻的图像上,当足够大时,最终会得到一个各向同性的高斯分布(球形高斯分布,也就是各个方向方差都一样的多维高斯分布)。

引用一个苏剑林大佬的比喻帮助大家理解:我们可以将扩散过程想象为建楼,其中随机噪声是砖瓦水泥等原材料,样本数据是高楼大厦,所以生成模型就是一支用原材料建设高楼大厦的施工队。这个过程肯定很难的,但俗话说“破坏容易建设难”,建楼你不会,拆楼你总会了吧?我们考虑将高楼大厦一步步地拆为砖瓦水泥的过程,当我们有了“拆楼”的中间过程后,我们知道拆楼的每一步是如何完成的,那反过来不就是建楼的一步?如果我们能学会两者之间的变换关系,那么从出发,反复地执行一步建楼的过程,最终不就能造出高楼大厦出来?

DDPM通过多步迭代生成得到图片缓解了变分自编码器生成图片模糊的问题,但是由于多步去噪过程需要对同一尺寸的图片数据进行操作,也就导致了越大的图片需要的计算资源越多(原来只要处理一次,现在有几步就要处理几次)。

DDPM细节推导(选读)

下面从数学一点的角度对DDPM进行介绍,不感兴趣的同学可以直接跳过

假设原始数据的分布为,从数据集中拿出一张图片就类似于从原始数据分布中进行采样,进一步可以定义第步的前向扩散过程为

AI视频技术Sora的全面解析
AI视频技术Sora的全面解析
AI视频技术Sora的全面解析

综上,算法的训练流程可以表示为

AI视频技术Sora的全面解析

算法流程

  • 随机从数据集中采样图片
  • 随机采样一个步数
  • 从高斯分布中采样一个噪声并通过nice property得到步后含噪的图片
  • 神经网络根据预测噪声,计算误差,反向传播

PS:在原论文中作者把方差给固定住了,仅学习均值部分来实现去噪的效果(当然,后续也有改进论文提出把方差也一起拿来学习)。

AI视频技术Sora的全面解析

U-net提出的初衷是为了解决医学图像分割的问题,其实整体来看,这个也是一个Encoder-Decoder的结构。这个结构先对图片进行卷积和池化,在U-net论文中是池化4次,比方说一开始的图片是224×224的,那么就会变成112×112,56×56,28×28,14×14四个不同尺寸的特征。然后我们对14×14的特征图做上采样或者反卷积,得到28×28的特征图,这个28×28的特征图与之前的28×28的特征图进行通道上的拼接,然后再对拼接之后的特征图做卷积和上采样,得到56×56的特征图,再与之前的56×56的特征拼接,卷积,再上采样,经过四次上采样可以得到一个与输入图像尺寸相同的224×224的预测结果。

对于时间步长t,可以将其转化为time embedding(比如类似position embedding的做法),然后叠加到(U-net的各层)图片上。

模型结构也确定了,怎么训练也知道了,那么训练完后该如何生成图片呢?图片的生成过程也称为采样的过程,流程如下

AI视频技术Sora的全面解析

反向去噪过程:从高斯分布中采样一个噪声,从时刻开始,每次通过训练好的神经网络预测噪声,然后得到略微去噪后的图片,再代入神经网络预测噪声,不断迭代,最终得到第0步的图片。

潜在扩散模型(LDM):借助VAE来降本增效

AI视频技术Sora的全面解析

LDM文生图(选读)

下面关于LDM的一些细节介绍,不感兴趣的同学可以直接跳过。

理解了latent的含义后,接下来再考虑下如何根据文本来生成图片呢? 既然要接收文本,那就需要给模型安排上文本编码器(text encoder),把文本转化为模型能够理解的东西。Stable Diffusion采用了CLIP的文本编码器,它的输入是一段文本,输出是77个token的embeddings向量,每个向量的维度为768(可以理解为一段话最多保留77个字(或词),每个字(或词)用768维的向量表示)。

AI视频技术Sora的全面解析
AI视频技术Sora的全面解析

得到文本的表示后,就需要考虑如何在原来的U-net里叠加上文本的信息呢? 原来的U-net的输入由两部分组成

  • 加噪后的图片
  • 时间步长(t)

现在则是由三部分组成

  • 加噪后的图片
  • 时间步长(t)
  • 文本的token embedding

为了能够充分利用文本的信息,让模型按照文本的意思来绘画,Stable Diffusion提出了一种文本和图片之间的交叉注意力机制,具体的

AI视频技术Sora的全面解析

其中,来自于图像侧,和来自于文本侧;可以理解为计算图像和文本的相似度,然后根据这个相似度作为系数对文本进行加权。 在前面U-net的基础上,每个resnet之后接上这样一个注意力机制就得到了注入文本信息的U-net的结构了。

然后就可以愉快地像之前的DDPM一样,预测噪声,最小化MSE,学习模型了!

最后再来一张整体的结构图总结一下

AI视频技术Sora的全面解析

Diffusion Transformers(DiT):当扩散模型遇到Transformer

LDM的扩散模型使用了U-net这一网络结构,但这个结构会是最佳的吗?

参考其他领域或者任务的经验,比如去年火了一整年的大语言模型、多模态大模型绝大部分用的都是Transformer结构,相比于U-net,Transformer结构的Scaling能力(模型参数量越大,性能越强)更受大家认可。因此,DiT其实就是把LDM中的U-net替换成了Transformer,并在Vision Transformer模块的基础上做了略微的修改使得在图片生成过程能够接受一些额外的信息,比如时间步,标签。

AI视频技术Sora的全面解析

Vision Transformer 基础(选读)

既然要用Transformer来替换U-net,我们需要了解一下Transformer如何处理图片数据的呢?经典之作当然是Vision Transformer (ViT)了,它的主要思想就是将图片分割为固定大小的图像块(image patch/token),对于每个图像块进行线性变换并添加位置信息,然后将得到的向量序列送入一个标准的Transformer编码器。

AI视频技术Sora的全面解析
AI视频技术Sora的全面解析
AI视频技术Sora的全面解析

Sora:视频生成的新纪元

先抛出我的观点:Sora就是改进的DiT

而DiT本质上是 VAE编码器 + ViT + DDPM + VAE解码器;从OpenAI的技术报告体现出来的创新点我认为主要有两个方面:

  • 改进VAE -> 时空编码器
  • 改进DiT -> 不限制分辨率和时长

至于图像分块、Scaling transformers、视频re-captioning、视频编辑(SDEdit)这些其实都是已知的一些做法了。

实现一个最low的视频生成模型

假如我们具备前面的知识了,或者说给你一个DiT(能够进行图片生成),如何能够实现视频的生成呢?

视频的每一帧(frame)本质上就是一张图片。在视频播放时,这些连续的图片以一定的速率(帧率,通常以每秒帧数FPS表示)快速播放,由于人眼的视觉暂留效应,这些连续的静态图片在观众眼中形成了动态效果,从而产生了视频的流畅运动感。

那要实现视频生成是不是可以看作是多帧图片的生成,因此最low的做法就是把视频生成看作独立的图片生成,使用DiT生成多帧图片然后串起来就是视频了。

AI视频技术Sora的全面解析

当然,这样做的问题显然很大,因为没有考虑视频不同帧图片之间的关联,可能会导致生成的多帧图像很不连贯,串起来看就不像是视频了。

改进VAE:融入时间关联

为了使得视频的生成连贯,那在VAE编解码的过程自然需要去考虑视频不同帧的关系,原来对图片进行处理相当于考虑的是图片空间上的关系,现在换到视频就是多了时间上的关系,也就是经典的时空联合建模问题。

AI视频技术Sora的全面解析

时空联合建模的方法其实非常多了,比如使用3D CNN、比如时间空间单独处理再融合、比如设计fancy的注意力机制等等。

对应的就是Sora技术报告中的Video compression network

We train a network that reduces the dimensionality of visual data.20 This network takes raw video as input and outputs a latent representation that is compressed both temporally and spatially.

技术报告中没有提及具体的做法,但是可以看出这里显然是在VAE编码器上考虑了时空建模,对于解码器的设计没有相关介绍(可能也考虑了时空建模,也可能不做改动)。

这里再分享另外一个工作VideoLDM,他们的做法是在解码器上插入额外的temporal layers来考虑视频帧之间的关系,而编码器是保持不变的。

这里额外推荐几篇视频生成的相关论文,Make-A-Video、Emu Video、VideoLDM、AnimateDiff、VideoPoet、Lumiere,感兴趣的同学可以进一步了解,这里不再赘述。

改进DiT:适配任意分辨率和时长

网上的很多分享都在传Sora能适配任意分辨率和时长是参考了NaViT这篇文章的做法,其实并非如此,Vision Transformer (ViT)本身就能够处理任意分辨率(不同分辨率就是相当于不同长度的图片块序列,不就类似你给大语言模型提供不同长度的输入一个意思)!NaViT只是提供了一种高效训练的方法。

AI视频技术Sora的全面解析

因为T,X,Y都是可变的,所以关键的问题应该是改进DiT使它能够更好地识别不同图片块是属于原始视频中的哪个区域。

一种可行的做法就是从位置编码的角度入手,比如对于输入Transformer的图片块,我们可以在patch embedding上叠加上时间、空间上的位置信息。

AI视频技术Sora的全面解析

类似的,其实在ViT的工作中考虑过使用2D-aware position embeddings来表示不同图片块的位置信息,只是没有什么明显的效果。

数据仍然还是王道

在数据层面上,OpenAI也给出了两点很有参考价值的方法

  • 不对视频/图片进行裁剪等预处理,使用native size
  • 数据的质量很重要,比如(文本、视频)这样的成对数据,原始的文本可能并不能很好的描述视频,可以通过re-captioning的方式来优化文本描述,这一点在DALL·E 3的报告中也已经强调了,这里只是进一步从图片re-captioning扩展到视频re-captioning。

那么DALL·E 3是如何做re-captioning的呢?(选读)

既然是生成文本,自然就是类GPT的语言模型,做的就是下一个词预测;考虑到生成的文本是图像的描述,因此需要基于图像这个条件,也就是条件生成,要把 image 放进去

AI视频技术Sora的全面解析

那么图像以什么形式放进去呢?简单点,就用 CLIP 来编码图像,然后把图像embedding放进去就ok了。那这样一个图像打标模型怎么训练呢?用的就是 CoCa 的方法,也就是同时考虑对比损失和LM损失

AI视频技术Sora的全面解析

模型推理策略

官方展示Sora的应用有很多,比如文生视频、图生视频、视频反推、视频编辑、视频融合等。 这里就会涉及一些有意思的做法,比如可以这么做(以下做法并不唯一)

1.文生视频:喂入DiT的就是文本embedding+全噪声patch

2.视频编辑:类似SDEdit的做法,在视频上加点噪声(不要搞成全是噪声),然后拿去逐步去噪

3.图生视频、视频反推、视频融合:喂入DiT的就是文本embedding(可选)+特定帧用给定图片的embedding+其他帧用全噪声patch

未来会是什么?

不知道大家有没有注意到,Sora还提到了它除了文生视频,也支持文生图,这里其实透露出了一种统一的味道。我相信未来的发展肯定会出现更加强大的多模态统一,这里引用一张去年我在一场内部分享中的slides来结束本次的文章,万物皆可“分词”,选择合适的编码器 + Transformer结构或其他 + 合适的解码器,就可能实现各种不同模态之前的互相转换、互相生成!

AI视频技术Sora的全面解析

比如可以参考NExT-GPT的一个结构图

AI视频技术Sora的全面解析

相信2024年同样会是AI领域突飞猛进的一年,期待更多精彩的工作。

RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/7201

Like (0)
Previous 2024-11-19 12:53 下午
Next 2024-11-19 2:09 下午

相关推荐

发表回复

Please Login to Comment
本文授权以下站点有原版访问授权 https://www.shxcj.com https://www.2img.ai https://www.2video.cn