何恺明新作:通用“扩散+Transformer”新范式——Just image Transformers

现有去噪(Denoising)扩散模型并非以经典意义上的方式“去噪”,即它们不直接预测干净图像。相反,神经网络预测的是噪声或含噪量。

在这项工作中,ResNet 之父、麻省理工学院(MIT)副教授何恺明团队认为,预测干净数据和预测含噪量有着根本性的不同。根据流形假设,自然数据应位于一个低维流形上,而含噪量则不在此流形上。

基于这一假设,他们提倡回归到第一性原理,让神经网络直接预测干净图像。

这使得表观容量不足的网络能够在高维空间中有效运行,一个简单的 Vision Transformer(ViT)——直接作用于由原始像素组成的大尺寸图像 patch——也可以有效地用于扩散建模。

[让我看看]他们认为,在像素上使用简单、大尺寸 patch 的 Transformer 可以成为强大的生成式模型,无需使用 tokenizer、无需预训练、无需额外损失函数和表征对齐,并将这一方法定义为:Just image Transformers(JiT)。

研究表明,JiT(patch 尺寸为 16、32)在 256 和 512 分辨率 ImageNet 上取得了具有竞争力的结果,而在这种情况下,预测高维含噪量可能会导致灾难性失败。

通过将网络映射到流形基础,这项研究回归本质,为在原始自然数据上基于 Transformer 的扩散模型构建了一个自洽的范式。

[强]研究团队还表示,这项工作标志着在原生数据上实现自包含的“扩散 + Transformer”哲学迈出了重要一步。

[哇]除了计算机视觉之外,这种哲学在涉及自然数据(如蛋白质、分子或天气)的其他领域中也是非常可取的,因为在这些领域中设计 tokenizer 是非常非常困难的。

通过最小化领域特定的设计,这一源自计算机视觉的通用“扩散 + Transformer”范式有望得到更广泛的应用。

#大模型 #人工智能 #AI #扩散模型 #何恺明 #学术 #论文 #科技

暂无介绍....

延伸阅读:

OpenAI下调高端服务门槛,推出100美元Pro订阅、直指Anthropic

在生成式AI竞争持续升温之际,OpenAI于美东时间9日周四宣布,推出全新的100美元/月ChatGPT Pro订阅方案...

娱乐早知道
2026年4月10日
AI换脸偷声侵权,那么大模型训练呢?

近期,配音行业掀起了一场大规模抵制AI声音侵权行动,原因是如今AI仿声、声音克隆等技术滥用愈演愈烈。无独有偶,从撞脸明星...

娱乐早知道
2026年4月10日
海特高新:成功研制并交付国内首台eVTOL模拟器及相关仿真解决方案

有投资者向海特高新(002023.SZ)提问,请问公司管理层,公司在低空飞行模拟器这一块,目前主要方向是在人为主,还是工...

八卦小灵通
2026年4月10日
早期项目 | 字节、OPPO、一加三重背景产品人,将软硬一体写入底层,要让AI看懂世界

作者丨欧雪编辑丨袁斯来过去两年,主流AI交互依赖于输入框——用户先组织语言提问,AI再给出答案。这种“对话式”交互效率极...

娱乐大事件
2026年4月10日
合十思维赵普:中德机器人合作不是零和博弈,而是双向赋能优势互补

来源:环球网【环球网财经 记者 陈超】“德国并不缺人工智能,也不缺机器人。技术并不是德国的短板。”近日,在由德国北威州国...

娱乐早知道
2026年4月10日