Sora官方技术报告详解|从模型能力到原理剖析的深度解读

2 评论 10494 浏览 16 收藏 12 分钟

文章基于OpenAI官方公布的Sora技术文档,从模型能力、训练方式和技术原理三个角度出发,剖析Sora的出现对人工智能的发展,到底意味着什么?

见字如面,文章内容相较于视频内容会更加精简,如需了解更多细节的内容请观看视频,视频地址:https://www.bilibili.com/video/BV1Xx4y1y7Ga

一、什么是Sora

2024年2月16日凌晨(美国时间2月15日)OpenAI推出视频生成模型:Sora,一款文生视频(text-to-video)的模型。

Sora是通过学习视频内容,来理解现实世界的动态变化,并用计算机视觉技术模拟这些变化,从而创造出新的视觉内容。

我们来直观地感受一下什么是Sora?

这是一段提示词(Prompt):

A Chinese Lunar New Year celebration video with Chinese Dragon

翻译成中文:

与中国龙庆祝中国新年。

文生视频。现在文字有了,我们来看视频效果。

可以发现无论是舞龙的细节表现,还是人群跟着舞龙队伍的真实感,效果是如此的逼真。

当然Sora的能力还远不止如此,除了支持文字生成视频外,还支持文字+图片、文字+视频、视频+视频的方式创作新的视频内容。

二、Sora模型能力介绍

能力一、Sora生成的视频内容,符合现实世界的物理规律

Sora生成的视频内容,符合现实世界的物理规律。

这说明Sora学习的不仅仅是视频中的画面,还在学习视频中元素之间的关系,学习现实世界中的物理规律。

比如:一个人咬一口汉堡后,能够在汉堡上能够留下咬痕。

能力二、Sora能够生成一分钟的高清视频,并且支持生成不同时长、长宽比和不同分辨率的视频与图像

对于视频创作者而言,能够基于不同创作平台视频尺寸要求来生成视频内容。

能力三、Sora支持文字+图片生成视频

能力四、Sora支持连接视频

Sora支持在两个视频之间进行过渡处理,从而实现视频之间的无缝过渡。

能力五、Sora支持文字+视频生成视频

Sora能够基于文本提示,从而改变原视频的风格化和视频中的元素。

能力六、Sora支持拓展视频

Sora能够在原视频的前后延长和拓展视频。

案例中三个视频,它们都是从生成的视频片段开始向前进行了视频的延伸。

因此,这三个视频的开头都不同,但结局都是相同的。

能力七、3D画面的一致性

Sora可以生成带有动态摄像机运动的视频。随着摄像机的移动和旋转,人和场景元素在三维空间中一致移动。

三、Sora模型训练方式

在官方技术报告中,有一段这样的表述:

Sora is a generalist model of visual date

翻译成中文:

Sora是一个“通用模型”。

但要训练一个通用模型的前提条件之一:“大规模的训练数据”。

Sora是怎么训练的呢?

分为一下两步:所有数据皆为“我”所用、帮助AI更好的学习。

1. 所有数据皆为”我”所用

沿用ChatGPT之前大力出奇迹的训练方式:通过互联网的海量数据进行训练后,从而获得了通用的模型能力。

互联网中的庞大数据,之所以能被GPT进行训练,是因为在训练前进行了【数据标记处理】,英文被称之为Tokenization。

大白话说就是:将训练的文本内容转译为计算机能够理解的语言。

Sora沿用了GPT标记训练数据集的思路,对视频内容进行标记。视频标记被称作为visual patches,中文翻译过来叫做:视觉补丁,其核心的作用就是将视频内容,标记后,转译为计算机能够理解的语言。

那有了视频标记后,如何让标记的速度更快?标记的质量更高?

就引出了下面一项技术。

2. 对训练数据集进行处理,助力AI更好的学习

Sora在对数据集处理方式时沿用了DALL-E3的Re-Captioning技术。

Re-Caption技术简单的来说是根据输入的图像生成对应的图像描述的文本内容。

这样做的好处:

AI学习到的不再是抽象的图像元素,并且1000个人有1000个哈姆雷特,通过图像+图像描述的方式,能够指引AI去人类图片的思路。

Sora运用该技术的具体的步骤是:

  • 首先训练了一个captioner model,它的作用就是能将视频内容转译为文本的描述内容。
  • 然后使用这个模型将训练集中所有的视频,逐个转译为文本内容后,再结合对应的视频进行训练,从而提高AI的学习质量。

四、Sora模型技术原理

Sora目前运用的是Diffusion model(扩散模型)+ Transformer两种技术架构的结合。

  1. Diffusion model:是一种生成模型,用于图像的生成。
  2. Transformer:是一种深度学习模型,最初用于自然语言处理,可以学习文本之间的依赖关系,也能够处理图片和视频的任务,如图像分类、视频理解。

咱们重点聊一聊Diffusion model(扩散模型)

这个技术路线和文生图的Stable diffusion的技术路线非常类似。

用一句话概括Sora扩散模型的实现过程:将原视频训练素材压缩后给Sora学习,学习如何将压缩后的视频内容还原和生成新的视频。

这里包含了两个关键步骤:Encoder-编码、Decoder-解码。

1)Encoder

Encoder就是将原视频进行压缩,压缩至一个低维度的空间,压缩后视频充满了噪点,Sora就是学习压缩后的数据。

2)Decoder

Decoder就是将压缩后的视频进行还原或创造,恢复至高清的像素空间。

那为什么Sora不直接拿原视频进行训练呢?

我们举个例子。

原视频进行Encoder编码后,整个视频的大小极具降低,所以训练的数据越小,消耗的算力资源越少,可训练的数据规模更大。

五、总结

Sora 建立在过去对 DALL·E 、GPT、Diffusion model 研究之上的,所以技术的爆发并非偶然,而是多项技术共同作用的结果。

那Sora的出现对人工智能的发展,到底意味着什么?

Sora的官方技术文档中有两句话让我印象深刻:

We’re teaching AI to understand and simulate the physical world in motion, with the goal of training models that help people solve problems that require real-world interaction

翻译成中文:

我们正在教AI理解和模拟运动中的物理世界,目标是训练模型来帮助人们解决现实世界中的交互问题。

OpenAI最终想做的,其实不是一个“文生视频”的工具,而是一个通用的“物理世界模拟器”。

而Sora,只是验证了,这条道路可行的一个里程碑。

Sora的出现,短期来看,能够提高创作者、影视从业者的生产效率;长期来看,AI能够更佳全面的理解人类生活中现实世界,AGI通用人工智能正在加速到来。

见字如面,希望文章对你有所帮助~

声明:文章中的视频内容均出自Sora生成

来源自OpenAI官方技术报告

Sora官方技术报告地址:https://openai.com/research/video-generation-models-as-world-simulators

作者:在野在也,公众号:在野在也

本文由 @在野在也 原创发布于人人都是产品经理。未经作者许可,禁止转载。

题图来自 Sora 官网演示视频截图

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
海报
评论
评论请登录
  1. mark

    来自广东 回复
    1. 💗

      来自广东 回复