OpenAI Sora:60s 超长长度、超强语义理解、世界模型。浅析文生视频模型 Sora 以及技术原理简介
已有 GPT 官方账号不会升级 GPT4 请参考:【保姆级】国内如何用gpt4?如何升级gpt4?保姆级教程
一、Sora 是什么?
Sora 官方链接:https://openai.com/sora
视频模型领头羊 Runway Gen 2、Pika 等 AI 视频工具,都还在突破几秒内的连贯性,而 OpenAI,已经达到了史诗级的纪录。
OpenAI,永远快别人一步!!!!
像 ChatGPT 成功抢了 Claude 的头条一样,这一次,谷歌核弹级大杀器 Gemini 1.5 才推出没几个小时,全世界的目光就被 OpenAI 的 Sora 抢了去。
100 万 token 的上下文,仅靠一本语法书就学会了一门全新的语言,如此震撼的技术进步,在 Sora 的荣光下被衬得暗淡无光,着实令人唏嘘。
三个词总结 “60s 超长长度”、“单视频多角度镜头”,“世界模型”
60s 超长长度: pika 和 runway(视频模型领头羊)还只能生成 4s 视频,这 60s 直接拉开了差距。而且动作连续,还有一定的艺术性,没有生硬的感觉。
单视频多角度镜头: 在 60s 的视频内,可以在保持主角色不变的高度一致性的同时,还生成多个不同角度的分镜。Sora 能在同一视频中设计出多个镜头,同时保持角色和视觉风格的一致性。
要知道,以前的 AI 视频,都单镜头生成的。。
世界模型: Sora 有时能够模拟对世界状态产生简单影响的行为。例如,画家可以在画布上持续添加新的笔触,或者一个人吃汉堡时留下咬痕。这个就厉害了,基于虚幻引擎 5(Unreal-Engine-5)的 Sora 它是能理解物理世界的。
二、为什么这一次 Sora 得到全世界这么多关注?
1. 技术上遥遥领先
跟之前的 runway 和 pika 可以说不属于一个种群了(类似于猿猴与人类),Sora 是跟 ChatGPT 一样是有理解能力的,它可以感知真实的物理世界和自然语言。
OpenAI 究竟是怎么做到的?根据官网介绍,「通过一次性为模型提供多帧的预测,我们解决了一个具有挑战性的问题。」
显然,这个王炸级技术有着革命般的意义,连 Sam Altman 都沉迷到不能自拔!
他不仅疯狂发推安利,而且还亲自下场为网友生成视频:你们随意来 prompt,我一一输出。
2. 大幅度降低了短视频制作的成本
只需一个简单的提示词,就能生成一段制作精良的 60 秒视频。时间之长,画面之不失违和,简直令人震惊。
支持使用图片或视频片段进行扩展,生成全新的视频。同时也支持将两个视频合并整合成一个新的视频。
原先汽车广告视频要花费大量的人力物力,是不是可以 AI 生成了?电影宣传片是不是也可以?短视频和短片本身就短那就更没问题了吧?(有人甚至认为 tiktok 都会被取代了)
但是需要创意和价值观的电影一时半会还不能被替代。因为需要好的估时剧本,好的导演,好的演员,大家配合才能演绎出一个经典的电影。
3. 生成 4K 图片
Sora 还能够生成图像,分辨率高达 2048×2048。除了 Midjourney 和 Dall-E 又有了个新的选择。
Sora 一出,马斯克直接大呼:人类彻底完蛋了!
马斯克为什么这么说?
OpenAI 科学家 Tim Brooks 表示,没通过人类预先设定,Sora 就自己通过观察大量数据,自然而然学会了关于 3D 几何形状和一致性的知识。
三、Sora 技术原理简介介绍
1. Sora 的训练受到了大语言模型(Large Language Model)的启发。
这些模型通过在互联网规模的数据上进行训练,从而获得了广泛的能力。
Sora 是一种扩散模型,它能够通过从一开始看似静态噪声的视频出发,经过多步骤的噪声去除过程,逐渐生成视频。
Sora 不仅能够一次性生成完整的视频,还能延长已生成的视频。通过让模型能够预见多帧内容,团队成功克服了确保视频中的主体即便暂时消失也能保持一致性的难题。
与 GPT 模型类似,Sora 采用了 Transformer 架构,从而实现了卓越的性能扩展。
OpenAI 把视频和图像分解为较小的数据单元——「patches」,每个「patches」相当于 GPT 中的一个「token」。这种统一的数据表示方法能够在更广泛的视觉数据上训练扩散 Transformer,覆盖了不同的持续时间、分辨率和纵横比。
2. Sora 的独特方法如何改变视频生成
以往,生成模型的方法包括 GAN、自回归、扩散模型。它们都有各自的优势和局限性。
但是!!!Sora 引入的,是一种全新的范式转变——新的建模技术和灵活性,可以处理各种时间、纵横比和分辨率。
Sora 所做的,是把 Diffusion 和 Transformer 架构结合在一起,创建了 diffusion transformer 模型。
于是,以下功能应运而生——
3. Sora 秘密成分的核心:时空 patch
这种方法使 Sora 能够有效地处理各种视觉数据,而无需调整大小或填充等预处理步骤。
这种灵活性确保了每条数据都有助于模型的理解,就像厨师可以使用各种食材,来增强菜肴的风味特征一样。
时空 patch 对视频数据详细而灵活的处理,为精确的物理模拟和 3D 一致性等复杂功能奠定了基础。
从此,我们可以创建看起来逼真且符合世界物理规则的视频,人类也得以一窥 AI 创建复杂、动态视觉内容的巨大潜力。
4. 多样化数据在训练中的作用
训练数据的质量和多样性,对于模型的性能至关重要。
传统的视频模型,是在限制性更强的数据集、更短的长度和更窄的目标上进行训练的。
而 Sora 利用了庞大而多样的数据集,包括不同持续时间、分辨率和纵横比的视频和图像。
它能够重新创建像 Minecraft 这样的数字世界,以及来自 Unreal 或 Unity 等系统的模拟世界镜头,以捕捉视频内容的所有角度和各种风格。
这样,Sora 就成了一个「通才」模型,就像 GPT-4 对于文本一样。
四、Sora 怎么使用
目前 openai 官方还未开放 sora 灰度,不过根据文生图模型 DALL·E 案例,一定是先给 ChatGPT Plus 付费用户使用,需要注册或者升级 GPT Plus 可以看这个教程 : 注册升级 ChatGPT Plus 教程
已经有账号的小伙伴看这个 :升级 ChatGPT Plus ,一分钟完成升级
一位 OpenAI 员工发推表示,现在 Sora 只会在有限的范围内试用(刚方面的专业用户评判其伦理性),现在放出的 demo 主要是为了获得社会大众对它能力的反应
现在,标榜要开发负责任 AGI 的 OpenAI,应该不会冒着风险给大众抛出一个潘多拉魔盒。
笔者认为使用 Sora 前我们需要有一些准备工作
在开始之前,确保您已经拥有了 OpenAI 账目,并获得了 Sora 的访问权限。准备好您想要转化成视频的文本描述,记住越详细越好。
1. Sora 使用步骤一:文本描述
登录您的 OpenAI 账户,找到 Sora 的使用界面。在指定区域输入您的文本描述,可以是一个故事概述、场景描述或是具体的动作指令。
2. Sora 使用步骤二:生成视频
完成文本描述和自定义设置后,点击“生成视频”按钮。Sora 将开始处理您的请求,这可能需要几分钟时间。完成后,您可以预览生成的视频。
需要注意的是,截止 2024 年 2 月 18 日,OpenAI 只向部分专业用户开放了 Sora 的访问权限。普通用户只能观看其发布的演示视频。
openai sora 如何使用的常见问答 Q&A
1.问题:Sora 是什么?
2.问题:Sora 怎么使用?
3.问题:Sora 的优势有哪些?
4.问题:Sora 的训练原理是什么?
五、附录
Google DeepMind 早期对 NaViT 和 ViT(视觉 Transformer)的研究:https://arxiv.org/abs/2307.06304
2021 年的论文「An Image is Worth 16×16 Words」:https://arxiv.org/abs/2010.11929
谢赛宁:Sora 很厉害,不过好像是用了我的论文成果:https://wpeebles.com/DiT
OpenAI 官方 Sora 技术报告:https://www.openai.com/research/sora/
Sora 视频案例:https://openai.com/sora
GPT4 注册升级教程参考:ChatGPT指南
评论