刚刚,meta 抢在 openai 之前推出自己的 sora ——meta movie gen
Sora 有的它都有,可创建不同宽高比的高清长视频,支持 1080p、16 秒、每秒 16 帧。
Sora 没有的它还有,能生成配套的背景音乐和音效、根据文本指令编辑视频,以及根据用户上传的图像生成个性化视频。
Meta 表示,这是 " 迄今为止最先进的媒体基础模型(Media Foundation Models)"。
只需一句 " 把灯笼变成飞向空中的泡泡 ",就能替换视频中的物体,同时透明的泡泡正确反射了背景环境。
上传一张自己的照片,就能成为 AI 电影的主角。
生成的视频不再无声,也不只是能安一个背景音乐。
比如看这里!视频会配合滑板轮子转动和落地配上逼真音效。(注意打开声音)
有人表示,随着大量创作者学会使用 AI 视频编辑工具,很难想象几年后长视频和短视频会变成什么样。
这一次,与 Sora 只有演示和官网博客不同,Meta 在92 页的论文中把架构、训练细节都公开了。
不过模型本身还没开源,遭到抱抱脸工程师贴脸开大,直接在评论区扔下 Meta 的开源主页链接:
在这等着您嗷。
Meta 在论文中特别强调,数据规模、模型大小、训练算力的扩展对于训练大规模媒体生成模型至关重要。通过系统地提升这几个维度,才使得如此强大的媒体生成系统成为可能。
其中最另业界关注的一点是,这一次他们完全扔掉了扩散模型和扩散损失函数,使用 Transformer 做骨干网络,流匹配(Flow Matching)做训练目标。
用 Llama3 架构做视频模型
具体来说 Movie Gen 由视频生成和音频生成两个模型组成。
Movie Gen Video:30B 参数 Transformer 模型,可以从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。
对于精确视频编辑,它可以执行添加、删除或替换元素,或背景替换、样式更改等全局修改。
对于个性化视频,它在保持角色身份一致性和运动自然性方面取得 SOTA 性能。
Movie Gen Audio:13B 参数 Transformer 模型,可以接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。
Movie Gen Video 通过预训练 - 微调范式完成,在骨干网络架构上,它沿用了 Transoformer,特别是 Llama3 的许多设计。
预训练阶段
在海量的视频 - 文本和图像 - 文本数据集上进行联合训练,学习对视觉世界的理解。这个阶段的训练数据规模达到了 O ( 100 ) M 视频和 O ( 1 ) B 图像,用以学习运动、场景、物理、几何、音频等概念。
微调阶段
研究人员精心挑选了一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。
为了进一步提高效果,模型还引入了流匹配(Flow Matching)作为训练目标,这使得视频生成的效果在精度和细节表现上优于扩散模型。
扩散模型通过从数据分布逐渐加入噪声,然后在推理时通过逆过程去除噪声来生成样本,用大量的迭代步数逐步逼近目标分布。
流匹配则是通过直接学习样本从噪声向目标数据分布转化的速度,模型只需通过估计如何在每个时间步中演化样本,即可生成高质量的结果。
与扩散模型相比,流匹配方法训练更加高效,计算成本更低,并且生成的结果在时间维度上具有更好的连续性和一致性。
在整体架构上,首先通过时空自编码器(Temporal AutoEncoder, TAE)将像素空间的 RGB 图像和视频压缩到一个时空潜空间,学习一种更加紧凑的表征。
接着,输入的文本提示被一系列预训练的文本编码器编码成向量表示,作为模型的条件信息。这里用到了多种互补的文本编码器,包括理解语义的编码器如 UL2、与视觉对齐的编码器如 Long-prompt MetaCLIP,以及理解视觉文本的字符级编码器如 ByT5。
最后,生成模型以 Flow Matching 的目标函数进行训练,从高斯分布采样的噪声向量作为输入,结合文本条件,生成一个输出潜码。这个潜码经过 TAE 解码,就得到最终的图像或视频输出。
此外 Movie Gen Video 在技术上还引入了多项创新:
为了让模型同时适配图像和视频,设计了一套因子化的可学习位置编码(factorized learnable positional embedding)机制。对高度、宽度、时间三个维度分别编码,再相加。这样即适配了不同宽高比,又能支持任意长度的视频。
针对推理效率问题,它采用了线性 - 二次时间步长调度(linear-quadratic t-schedule)策略。仅用 50 步就能逼近 1000 步采样的效果,大幅提升了推理速度。
为了进一步提高生成效率,Movie Gen Video 模型还采用了基于时间平铺(temporal tiling)的推理方法。应对生成高分辨率长视频时,直接对整个视频进行编码和解码可能会遇到的内存限制问题。
在时间平铺推理中,输入视频在时间维度上被分割成多个片段,每个片段独立进行编码和解码,然后在输出时将所有片段重新拼接在一起。这种方法不仅降低了对内存的需求,还提高了推理的效率。
此外,在解码阶段使用了重叠和混合的方式来消除片段边界处的伪影问题,即通过在片段之间引入重叠区域,并对重叠区域进行加权平均,确保生成的视频在时间维度上保持平滑和一致。
另外 Meta 还开源了多个基准测试数据集,包括 Movie Gen Video Bench、Movie Gen Edit Bench 和 Movie Gen Audio Bench,为后续研究者提供了权威的评测工具,有利于加速整个领域的进步。
这篇长达 92 页的论文还介绍了更多在架构、训练方法、数据管理、评估、并行训练和推理优化、以及音频模型的更多信息。
感兴趣的可到文末链接查看。
One More Thing
AI 视频生成这块,这两天热闹不断。
就在 Meta 发布 Movie Gen 之前不久,OpenAI Sora 主创之一Tim Brooks跳槽谷歌 DeepMind,继续视频生成和世界模拟器方面的工作。
这让很多人想到,就像当年谷歌迟迟不推出大模型应用,Transformer 8 个作者纷纷出走。
现在 OpenAI 迟迟发布不了 Sora,主要作者也跑了。
不过另外也有人认为,Tim Brooks 选择现在离开,或许说明他在 OpenAI 的主要工作完成了,也让人开始猜测:
Meta 的发布会迫使 OpenAI 放出 Sora 来回应吗?
(截至目前为止,Sora 的另一位主创 Bill Peebles 还未发声。)
现在 Meta 放出了带有视频编辑功能的模型,再加上 10 月 1 日 Pika 1.5 更新,主打给视频中物体加上融化、膨胀、挤压等物理特效。
不难看出,AI 视频生成下半场,要开始卷向 AI 视频编辑了。
论文地址:
https://ai.meta.com/static-resource/movie-gen-research-paper
参考链接:
[ 1 ] https://ai.meta.com/research/movie-gen/
[ 2 ] https://x.com/AIatMeta/status/1842188252541043075
以上就是Meta 版 Sora 无预警来袭!抛弃扩散模型,音视频生成 / 画面编辑全包,92 页论文无保留公开的详细内容,更多请关注慧达安全导航其它相关文章!
免责 声明
1、本网站名称:慧达安全导航
2、本站永久网址:https//www.huida178.com/
3、本站所有资源来源于网友投稿和高价购买,所有资源仅对编程人员及源代码爱好者开放下载做参考和研究及学习,本站不提供任何技术服务!
4、本站所有资源的属示图片和信息不代表本站的立场!本站只是储蓄平台及搬运
5、下载者禁止在服务器和虚拟机下进行搭建运营,本站所有资源不支持联网运行!只允许调试,参考和研究!!!!
6、未经原版权作者许可禁止用于任何商业环境,任何人不得擅作它用,下载者不得用于违反国家法律,否则发生的一切法律后果自行承担!
7、为尊重作者版权,请在下载24小时内删除!请购买原版授权作品,支持你喜欢的作者,谢谢!
8.若资源侵犯了您的合法权益,请持 您的版权证书和相关原作品信息来信通知我们!QQ:1247526623我们会及时删除,给您带来的不便,我们深表歉意!
9、如下载链接失效、广告或者压缩包问题请联系站长处理
10、如果你也有好源码或者教程,可以发布到网站,分享有金币奖励和额外收入!
11、本站资源售价只是赞助,收取费用仅维持本站的日常运营所需
12、因源码具有可复制性,一经赞助,不得以任何形式退款。
13、本文内容由网友自发贡献和站长收集,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系1247526623@qq.com
转载请注明出处: 慧达安全导航 » Meta 版 Sora 无预警来袭!抛弃扩散模型,音视频生成 / 画面编辑全包,92 页论文无保留公开
发表评论 取消回复