当前位置: 首页 > news >正文

wordpress云建站系统/上海seo推广整站

wordpress云建站系统,上海seo推广整站,合肥建设银行招聘网站,wordpress wdone破解TL;DR 2025 年 sand AI 发布的视频生成工作,提出了 MAGI-1:一种基于扩散的大规模生成模型,通过自回归地生成按时间分块的视频,每个块包含一段固定长度的连续帧 Paper name MAGI-1: Autoregressive Video Generation at Scale P…

TL;DR

  • 2025 年 sand AI 发布的视频生成工作,提出了 MAGI-1:一种基于扩散的大规模生成模型,通过自回归地生成按时间分块的视频,每个块包含一段固定长度的连续帧

Paper name
MAGI-1: Autoregressive Video Generation at Scale

Paper Reading Note

Paper URL:

  • https://static.magi.world/static/files/MAGI_1.pdf

Project URL:

  • https://sand.ai/

Introduction

背景

  • 大多数大规模视频扩散模型仍依赖于对完整时间序列同时处理的全局条件去噪架构。这类模型通常使用统一的噪声水平,并且推理时需要访问完整序列,忽略了时间数据中固有的因果结构,因此在需要流式、实时交互或自回归生成的场景中表现不佳。

本文方案

  • 提出了 MAGI-1:一种基于扩散的大规模生成模型,通过自回归地生成按时间分块的视频,每个块包含一段固定长度的连续帧。这种按块处理的方法在因果建模与时间抽象之间提供了系统性的权衡,使模型能够捕捉中程的时间依赖关系,同时严格保持从左到右的时间一致性。训练在块级别进行,并使用时间递增的噪声水平,从而得到既具有自回归结构又能灵活进行条件生成的模型。
    • 分布式注意力机制(MagiAttention):专为双向空间处理与因果时间去噪设计

Methods

  • MAGI-1 以流水线方式逐块生成视频。具体来说,每个块包含多个帧,这些帧被整体去噪。当一个块去噪到一定程度(不必完全干净)后,下一个块便开始生成,并以此前所有块为条件。此设计允许多个块并行处理。在我们的实现中,每个块包含 24 帧原始画面(相当于 24 FPS 下的一秒视频片段),最多可同时推理四个块。相比于完全去噪一个块后再生成后续块的方法,我们的方法通过并行性更好地利用了计算资源,降低了获得后续干净块的延迟,实现了实时流式视频生成。
    在这里插入图片描述

基于 Transformer 的变分自编码器(VAE)

  • 考虑到卷积架构在现代 GPU 上的推理速度远低于 transformer 架构,基于 Transformer 设计了新的 VAE 架构

在这里插入图片描述

  • 模型架构

    • 在编码器中,输入首先经过一个基于 3D 卷积(核大小 8×8×4,步幅 8×8×4)的嵌入模块处理,输出 1024 个通道。随后加入绝对位置嵌入,丰富时空表达。基于此,堆叠了 24 个 Transformer 块,通过对查询、键、值进行归一化来提升训练稳定性。最终输出经过 LayerNorm 归一化,并通过线性层投影到 32 通道,其中前 16 通道表示预测均值,后 16 通道表示预测对数方差。与原始输入视频相比,编码特征在空间维度上下采样了 8 倍,在时间维度上下采样了 4 倍。
    • 解码器采用与编码器对称的架构。为了恢复原始的时空分辨率,先对最终 Transformer 块的输出应用像素重排(pixel shuffle)操作,然后进行 3×3×3 的 3D 卷积并输出 3 通道生成最终像素空间图像。
    • 图片输入;单帧的图像输入,我们在时间维度上将该帧复制四次,这比用三帧空白填充效果更好。
  • VAE 的训练分为两个阶段

    • 第一阶段使用固定输入分辨率(16 帧短片,空间分辨率 256×256 像素)
    • 第二阶段
      • 同时使用图像数据(单帧)和视频数据(16 帧短片)
      • 每个训练步骤随机采样空间分辨率和宽高比,从而增强泛化能力。总像素数(高×宽)约为 256² 或 384²,宽高比在 [0.25, 4.0] 范围内均匀采样
  • 推理

    • 推理时,我们采用滑动窗口方法支持任意分辨率。空间维度窗口大小为 256×256 像素,步幅为 192 像素,相邻块有 25% 重叠;时间维度则无重叠。
  • VAE 和其他模型对比,模型参数量最大,但是推理速度最快。重建的指标也排名较高
    在这里插入图片描述

自回归的降噪模型

  • 采用 flow-matching 训练目标

  • FFN 用 sandwich norm

  • 并行的 attention block 提升计算效率

    • Block-Causal Attention:
      • 每个 chunk 内是 full attention,chunk 间是 causal attention
      • 3D RoPE,base frequency is learnable
      • 基于 FlashAttention-3 实现了一个 Flexible-Flash-Attention kernel
      • GQA
      • QK-Norm
    • condition 输入使用的 cross attention
      在这里插入图片描述
  • 模型参数配置
    在这里插入图片描述

  • training timestep 采样:在 t<0.3 部分用了 70% 的算力
    在这里插入图片描述
    原因是发现 t=0.3 时模型能生成合理的清晰视频
    在这里插入图片描述

Conclusion

  • MAGI-1 报告写得非常详尽,模型架构还是和目前主流架构有较大区别,能看出是希望走出一定差异化路线的。Causal 的 chunk 设计对于长视频的生成确实比较友好
  • VAE 采用 transformer 架构还是比较少见的,高分辨下需要分块处理可能需要有一定优化工作量
http://www.whsansanxincailiao.cn/news/30243774.html

相关文章:

  • 2018做网站赚钱不/2345网址大全浏览器
  • 网站维护升级/直播回放老卡怎么回事
  • 黄山旅游攻略二日游自由行攻略/百度seo发帖推广
  • 网站和系统哪个好做/qq关键词排名优化
  • 工商网站如何下载建设银行u盾证书/怎么建立自己的企业网站
  • 谷哇网站建设/线上销售的方法和技巧
  • 做网站之前要备案是什么意思/南昌seo排名扣费
  • 关于怎样把网站建设好的一些建议/精准营销案例
  • 南昌网站建设模板文档/什么是seo什么是sem
  • 建站宝盒做的网站/北京做网站的公司有哪些
  • 武汉网站建设whjzyh/一般的电脑培训班要多少钱
  • win2008sr怎么用iis做网站/郴州seo快速排名
  • 网页模版网站/cdq百度指数
  • 不会被封的网站谁做/免费的网站申请
  • 专业网站制作公司塞尼铁克/java培训
  • 网站banner flash素材/优质外链平台
  • 网站漏洞解决办法/做一个app平台需要多少钱
  • 监管回应企业员工贷款上班/首页排名seo
  • wordpress语言修改/seo网站排名
  • 建设网站价钱/长沙谷歌seo
  • 河南城乡与住房建设厅网站/5118站长工具箱
  • 文字云网站/基本营销策略有哪些
  • 网站搭建在线支付/关联词有哪些小学
  • 平面设计网站大全有哪些/seo搜索优化待遇
  • win8.1 wordpress/鹤壁seo公司
  • 网站建设分几模块/微软bing搜索引擎
  • 赤峰网站建设培训/西安网络公司
  • 免费个人网站怎么做/重庆seo排名优化
  • 做单位网站/长春网站建设开发
  • 快速网站seo效果/网络推广公司网站