前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >​丢掉注意力的扩散模型:Mamba带火的SSM被苹果、康奈尔盯上了

​丢掉注意力的扩散模型:Mamba带火的SSM被苹果、康奈尔盯上了

作者头像
机器之心
发布于 2023-12-12 10:39:28
发布于 2023-12-12 10:39:28
4500
举报
文章被收录于专栏:机器之心机器之心

机器之心报道

机器之心编辑部

替代注意力机制,SSM 真的大有可为?

为了用更少的算力让扩散模型生成高分辨率图像,注意力机制可以不要,这是康奈尔大学和苹果的一项最新研究所给出的结论。

众所周知,注意力机制是 Transformer 架构的核心组件,对于高质量的文本、图像生成都至关重要。但它的缺陷也很明显,即计算复杂度会随着序列长度的增加呈现二次方增长。这在长文本、高分辨率的图像处理中都是一个令人头疼的问题。

为了解决这个问题,这项新研究用一个可扩展性更强的状态空间模型(SSM)主干替代了传统架构中的注意力机制,开发出了一个名为 Diffusion State Space Model(DIFFUSSM)的新架构。这种新架构可以使用更少的算力,媲美或超越具有注意力模块的现有扩散模型的图像生成效果,出色地生成高分辨率图像。

得益于上周「Mamba」的发布,状态空间模型 SSM 正受到越来越多的关注。Mamba 的核心在于引入了一种新的架构 ——「选择性状态空间模型( selective state space model)」,这使得 Mamba 在语言建模方面可以媲美甚至击败 Transformer。当时,论文作者 Albert Gu 表示,Mamba 的成功让他对 SSM 的未来充满了信心。如今,康奈尔大学和苹果的这篇论文似乎又给 SSM 的应用前景增加了新的例证。

微软首席研究工程师 Shital Shah 提醒说,注意力机制可能要从坐了很久的王座上被拉下来了。

论文概览

图像生成领域的迅速进展得益于去噪扩散概率模型(DDPMs)。这类模型将生成过程建模为迭代去噪潜变量,当执行足够的去噪步骤时,它们能够产生高保真度的样本。DDPMs 捕捉复杂视觉分布的能力使其在推动高分辨率、照片级合成方面具有潜在的优势。

在将 DDPMs 扩展到更高分辨率方面仍然存在重要的计算挑战。主要瓶颈是在实现高保真生成时依赖自注意力。在 U-Nets 架构中,这个瓶颈来自将 ResNet 与注意力层相结合。DDPMs 超越了生成对抗网络 (GANs),但需要多头注意力层。在 Transformer 架构中,注意力是中心组件,因此对于实现最新的图像合成结果至关重要。在这两种架构中,注意力的复杂性,与序列长度成二次方关系,所以当处理高分辨率图像时将变得不可行。

计算成本促使以往的研究者们使用表示压缩方法。高分辨率架构通常采用分块化(patchifying)或多尺度分辨率。通过分块化可以创建粗粒度表示,降低计算成本,但代价是牺牲关键的高频空间信息和结构完整性。多尺度分辨率虽然可以减少注意层的计算,但也会通过降采样减少空间细节并在应用上采样时引入伪影。

扩散状态空间模型(DIFFUSSM)是一种不使用注意力机制的扩散架构,它旨在解决在高分辨率图像合成中应用注意力机制时出现的问题。DIFFUSSM 在扩散过程中采用了门控状态空间模型 (SSM)。之前的研究表明,基于 SSM 的序列模型是一种有效而且高效的通用神经序列模型。通过使用这种架构,可以使 SSM 核心处理更细粒度的图像表示,消除全局分块化或多尺度层。为进一步提高效率,DIFFUSSM 在网络的密集组件中采用沙漏 (hourglass) 架构。

作者在不同分辨率下验证了 DIFFUSSM 的性能。在 ImageNet 上的实验证明,在各种分辨率下,DIFFUSSM 在 FID、sFID 和 Inception Score 上都取得了一致的改进,并且总 Gflops 更少。

论文链接:https://arxiv.org/pdf/2311.18257.pdf

DIFFUSSM 框架

作者的目标是设计一种扩散架构,能够在高分辨率下学习长程相互作用,而无需像分块化那样进行「长度缩减」。与 DiT 类似,该方法通过展平图像并将其视为序列建模问题来实现。然而,与 Transformer 不同,这种方法在这个序列的长度上使用次二次(sub-quadratic)计算。

DIFFUSSM 的核心组件是优化处理长序列的门控双向 SSM。为了提高效率,作者在 MLP 层中引入沙漏架构。这种设计在双向 SSM 周围交替扩展和收缩序列长度,同时在 MLP 中特定地减少序列长度。完整的模型架构如图 2 所示。

具体来说,每个沙漏层接收经过缩短并展平的输入序列 I ∈ R^(J×D),其中 M = L/J 是缩小和放大的比例。同时,整个块,包括双向 SSM,在原始长度上进行计算,充分利用全局上下文。文中使用 σ 表示激活函数。对于 l ∈ {1 . . . L},其中 j = ⌊l/M⌋,m = l mod M,D_m = 2D/M,计算方程如下所示:

作者在每个层中使用跳跃连接集成门控 SSM 块。作者在每个位置集成了类标签 y ∈ R^(L×1) 和时间步 t ∈ R^(L×1) 的组合,如图 2 所示。

参数:DIFFUSSM 块中参数的数量主要由线性变换 W 决定,其中包含 9D^2 + 2MD^2 个参数。当 M = 2 时,这产生了 13D^2 个参数。DiT 变换块在其核心变换层中有 12D^2 个参数;然而,DiT 架构在其他层组件(自适应层归一化)中具有更多的参数。研究者在实验中通过使用额外的 DIFFUSSM 层来匹配参数。

FLOPs:图 3 比较了 DiT 和 DIFFUSSM 之间的 Gflops。DIFFUSSM 一层的总 Flops 为

,其中 α 代表 FFT 实现的常数。当 M = 2 且线性层主导计算时,这大约产生 7.5LD^2 Gflops。相比之下,如果在这个沙漏架构中使用全长的自注意力而不是 SSM,会有额外的 2DL^2 Flops。

考虑两种实验场景:1) D ≈ L = 1024,这将带来额外的 2LD^2 Flops,2) 4D ≈ L = 4096,这将产生 8LD^2 Flops 并显著增加成本。由于双向 SSM 的核心成本相对于使用注意力的成本较小,因此使用沙漏架构对基于注意力的模型不起作用。正如前面讨论的,DiT 通过使用分块化来避免这些问题,以代价是压缩表示。

实验结果

类别条件图像生成

表 1 是 DIFFUSSM 与目前所有的最先进的类别条件生成模型的比较结果。

当没有使用无分类器指导时,DIFFUSSM 在 FID 和 sFID 两方面均优于其他扩散模型,将之前非无分类器指导潜在扩散模型的最佳分数从 9.62 降至 9.07,同时使用的训练步骤减少到原来的 1/3 左右。在训练的总 Gflops 方面,未压缩模型相较于 DiT 减少了 20% 的总 Gflops。当引入无分类器指导时,模型在所有基于 DDPM 的模型中获得了最佳的 sFID 分数,超过了其他最先进的策略,表明 DIFFUSSM 生成的图像对于空间失真更具鲁棒性。

DIFFUSSM 在使用无分类器指导时的 FID 分数超越了所有模型,并在与 DiT 相比时保持了相当小的差距(0.01)。需要注意的是,在没有应用无分类器指导的情况下,以减少 30% 的总 Gflops 训练的 DIFFUSSM 已经超过了 DiT。U-ViT 是另一种基于 Transformer 的架构,但采用了基于 UNet 的架构,块之间有长跳连接。U-ViT 在 256×256 分辨率下使用较少的 FLOPs,并在性能上表现更好,但在 512×512 数据集中情况并非如此。作者主要与 DiT 进行比较,为了公平,没有采用这种长跳连接,作者认为采用 U-Vit 的思想可能对 DiT 和 DIFFUSSM 都有益处。

作者进一步在更高分辨率的基准上使用无分类器指导进行比较。DIFFUSSM 的结果相对强劲,并接近最先进的高分辨率模型,仅在 sFID 上不及 DiT,并获得了可比较的 FID 分数。DIFFUSSM 在 302M 张图像上进行了训练,观察了 40% 的图像,使用的 Gflops 比 DiT 少了 25%。

无条件图像生成

作者将模型的无条件图像生成能力与现有基线进行比较。结果显示在表 2 中。作者的研究发现,DIFFUSSM 在与 LDM 相当的训练预算下取得了可比较的 FID 分数(差距为 - 0.08 和 0.07)。这个结果突显了 DIFFUSSM 在不同基准和不同任务中的适用性。与 LDM 类似,由于只使用 ADM 总训练预算的 25%,因此在 LSUN-Bedrooms 任务中,该方法并未超过 ADM。对于这个任务,最佳 GAN 模型在模型类别上胜过扩散模型。

更多内容请参考原论文。

© THE END

转载请联系本公众号获得授权

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-12-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署
王家豪,香港大学计算机系二年级博士,导师为罗平教授,研究方向为神经网络轻量化。硕士毕业于清华大学自动化系,已在 NeurIPS、CVPR 等顶级会议上发表了数篇论文。
机器之心
2025/02/03
1110
线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署
DiffiT | 英伟达提出用于图像生成的扩散ViT架构DiffiT,达成新SOTA!
https://arxiv.org/abs/2312.02139 https://github.com/NVlabs/DiffiT
AIWalker
2023/12/12
8650
DiffiT | 英伟达提出用于图像生成的扩散ViT架构DiffiT,达成新SOTA!
Mamba入局遥感图像分割 | Samba: 首个基于SSM的遥感高分图像语义分割框架
本文将为大家介绍来自西交利浦大学、澳大利亚科学与工业研究院矿物研究所以及利物浦大学联合提出的最新工作Samba,这是一种基于状态空间模型的遥感图像语义分割方法。该工作提出了高分辨率遥感图像的语义分割框架 Samba,性能指标均超越了CNN-based和ViT-based方法,证明了Mamba在遥感高分图像中作为新一代backbone的潜力,为遥感语义分割任务提供了 mamba-based 方法的表现基准。值得一提的是,Samba是第一个将状态空间模型(SSM)运用到遥感图像语义分割任务中的工作,代码已开源,欢迎关注。
JOYCE_Leo16
2024/04/09
8540
Mamba入局遥感图像分割 | Samba: 首个基于SSM的遥感高分图像语义分割框架
MatIR:融合Mamba与 Transformer 的混合图像修复模型,实验验证其显著有效性!
图像恢复旨在从退化或损坏的输入中恢复清晰且高质量的图像。这是计算机视觉中的一个长期问题,包括了一系列子问题,如超分辨率、图像去噪和去模糊。随着现代深度学习模型,如卷积神经网络CNNs 和 Transformer 的引入,近几年来,该领域的最先进性能得到了持续提升。去噪、去模糊和超分辨率等任务需要能够准确重建图像细节同时保留结构信息的模型。传统的基于卷积的方法通常无法捕捉到涉及大或严重退化图像的任务中至关重要的长距离依赖关系。深度学习领域的最新进展,如Transformer架构,在捕捉图像中的全局依赖性方面显示出了潜力。然而,Transformer的计算成本随序列长度的平方增长,这限制了其可扩展性,尤其是在高分辨率图像恢复任务中,这些任务以二次复杂度为代价提供了全局感受野。
AIGC 先锋科技
2025/03/10
2160
MatIR:融合Mamba与 Transformer 的混合图像修复模型,实验验证其显著有效性!
清华 & 华为 开源U-DiTS | 利用 U-Net 架构提升扩散 Transformer 的性能和效率!
感谢注意力机制建立了长距离的空间依赖关系,Transformers 在各种视觉任务中,包括图像分类 、目标检测、分割 和图像恢复 ,都证明了其高效性。DiTs 将完整的Transformer架构引入到扩散模型中,这在小鼠图像空间和潜在空间生成任务上展示了卓越的性能和可扩展性。最近的后续工作通过将扩散Transformer的应用扩展到灵活分辨率的图像生成 、真实视频生成等领域,展示了其前景广阔。
AIGC 先锋科技
2024/07/08
5790
清华 & 华为 开源U-DiTS | 利用 U-Net 架构提升扩散 Transformer 的性能和效率!
清华 & 卡梅隆 & 上交大 打破计算瓶颈,DiTFastAttn 方法优化扩散 Transformer 的图像与视频生成 !
扩散 Transformer (DiT)最近在图像生成和视频生成中越来越受欢迎。然而,DiT的一个主要挑战是它们的计算需求量很大,特别是在生成高分辨率内容时特别明显。一方面,传统的 Transformer 架构,由于其自注意力机制,对输入标记长度L具有的复杂度。这种二次复杂度随着图像和视频分辨率的提高导致计算成本显著增加。如图1所示,随着图像分辨率的增加,注意力计算在推理过程中成为主要的计算瓶颈。具体来说,如果一个的图像被标记为16k个标记(Chen等人,2024),即使在像Nvidia A100这样的高端GPU上,注意力计算也需要几秒钟。另一方面,由于多个去噪步骤和分类器自由引导(CFG)技术,扩散推理过程需要大量的神经网络推理。
AIGC 先锋科技
2024/07/08
5170
清华 & 卡梅隆 & 上交大 打破计算瓶颈,DiTFastAttn 方法优化扩散 Transformer 的图像与视频生成 !
从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型
论文第一作者为清华大学自动化系博士生韩东辰,指导老师为黄高副教授。他的主要研究方向包括高效模型架构设计、多模态大模型等。
机器之心
2025/02/14
830
从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型
扩散模型和Transformer梦幻联动!一举拿下新SOTA,MILA博士:U-Net已死
羿阁 萧箫 发自 凹非寺 量子位 | 公众号 QbitAI “U-Net已死,Transformer成为扩散模型新SOTA了!” 就在ChatGPT占尽AI圈风头时,纽约大学谢赛宁的图像生成模型新论文横空出世,收获一众同行惊讶的声音。 △MILA在读ML博士生Ethan Caballero 论文创意性地将Transformer与扩散模型融合,在计算效率和生成效果上均超越了基于U-Net的经典模型ADM和LDM,打破了U-Net统治扩散模型的“普遍认知”。 网友给这对新组合命名也是脑洞大开: All w
量子位
2023/02/28
4830
扩散模型和Transformer梦幻联动!一举拿下新SOTA,MILA博士:U-Net已死
北大 & 中科大提出 PlainMamba | 即插即用,保持高性能的同时大大减少计算量 !
开发高性能的视觉编码器一直是计算机视觉领域最重要的目标之一。借助高质量的视觉特征,一系列下游任务,如语义分割、物体识别和检测,都可以相对容易地解决。
AIGC 先锋科技
2024/07/08
1.4K0
北大 & 中科大提出 PlainMamba | 即插即用,保持高性能的同时大大减少计算量 !
【源头活水】Mamba-YOLO性能超越 YOLO!:SSM+CNN的新型主干网络
作者提出了Mamba-YOLO,它基于SSM,为YOLO系列在目标检测方面建立了新的基准。实验结果显示 Mamba-YOLO 在一般目标检测任务中非常有竞争力,在 MSCOCO 上的 mAP 比 baseline YOLOv8 高出 8.1%。
马上科普尚尚
2024/07/05
3.7K0
【源头活水】Mamba-YOLO性能超越 YOLO!:SSM+CNN的新型主干网络
统治扩散模型的U-Net要被取代了,谢赛宁等引入Transformer提出DiT
机器之心报道 编辑:陈萍、蛋酱 来自 UC 伯克利的 William Peebles 以及纽约大学的谢赛宁撰文揭秘扩散模型中架构选择的意义,并为未来的生成模型研究提供经验基线。 近几年,在 Transformer 的推动下,机器学习正在经历复兴。过去五年中,用于自然语言处理、计算机视觉以及其他领域的神经架构在很大程度上已被 transformer 所占据。 不过还有许多图像级生成模型仍然不受这一趋势的影响,例如过去一年扩散模型在图像生成方面取得了惊人的成果,几乎所有这些模型都使用卷积 U-Net 作为主干
机器之心
2023/03/29
4690
统治扩散模型的U-Net要被取代了,谢赛宁等引入Transformer提出DiT
Vision Mamba:将Mamba应用于计算机视觉任务的新模型
Mamba是LLM的一种新架构,与Transformers等传统模型相比,它能够更有效地处理长序列。就像VIT一样现在已经有人将他应用到了计算机视觉领域,让我们来看看最近的这篇论文“Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Models,”
deephub
2024/01/23
4.7K0
Vision Mamba:将Mamba应用于计算机视觉任务的新模型
DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
今年 2 月初,Sora 的发布让 AI 社区更加看到了基础扩散模型的潜力。连同以往出现的 Stable Diffusion、PixArt-α 和 PixArt-Σ,这些模型在生成真实图像和视频方面取得了显著的成功。这意味着开始了从经典 U-Net 架构到基于 Transformer 的扩散主干架构的范式转变。
机器之心
2024/05/14
1K0
DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
PPMamba 一种基于金字塔聚类局部辅助SSM的图像语义分割模型 !
遥感(RS)技术的快速发展极大地改变了作者对地球时间和空间尺度的认识。遥感技术在农业、林业、地质学、气象学、军事和环境保护等领域得到广泛应用,实现了系统性的分析、评估和预测。在这些应用中,语义分割在许多下游地质学任务中起着重要的作用,如土地覆盖分类和城市扩张监测等。
未来先知
2024/09/29
4270
PPMamba 一种基于金字塔聚类局部辅助SSM的图像语义分割模型 !
视频生成无需GAN、VAE,谷歌用扩散模型联合训练视频、图像,实现新SOTA
机器之心报道 编辑:杜伟、陈萍 扩散模型正在不断的「攻城略地」。 扩散模型并不是一个崭新的概念,早在2015年就已经被提出。其核心应用领域包括音频建模、语音合成、时间序列预测、降噪等。 那么它在视频领域表现如何?先前关于视频生成的工作通常采用诸如GAN、VAE、基于流的模型。 在视频生成领域,研究的一个重要里程碑是生成时间相干的高保真视频。来自谷歌的研究者通过提出一个视频生成扩散模型来实现这一里程碑,显示出非常有希望的初步结果。本文所提出的模型是标准图像扩散架构的自然扩展,它可以从图像和视频数据中进行联合训
机器之心
2022/04/11
6160
视频生成无需GAN、VAE,谷歌用扩散模型联合训练视频、图像,实现新SOTA
西交大 & 上海 AI Lab 提出 HRVMAMBA 用于高分辨率视觉状态空间模型,助力图像分类、人体姿态估计和语义分割等!
卷积神经网络(CNNs)和视觉 Transformer (ViTs)在图像分类、人体姿态估计和语义分割等任务上取得了显著进展。尽管CNN在局部特征提取方面表现出色,具有线性计算复杂度,但它们缺乏全局上下文建模能力。尽管ViTs通过自注意力机制捕获全局感受野,但面临平方复杂度,尤其是对于大输入缺乏归纳偏差。Mamba(Gu和Dao,2023年)引入了S6结构,提高了状态空间模型(SSMs)在长程特征提取方面的效率。通过使用输入相关的状态空间参数,Mamba实现了线性复杂度的更好的上下文建模。这导致了许多后续的视觉Mamba模型,如ViM,VMamba,LocalVMamba,GroupMamba 。
未来先知
2024/11/04
3770
西交大 & 上海 AI Lab 提出 HRVMAMBA 用于高分辨率视觉状态空间模型,助力图像分类、人体姿态估计和语义分割等!
英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025
正如标题所言「Attention is all you need」,Transformer已成为不同领域的「霸主」,包括计算机视觉、自然语言处理、语音处理和机器人技术。
新智元
2025/03/10
2340
英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025
北大和港科技提出 DiT4Edit, 用于图像编辑的扩散变换器 (Diffusion Transformer) !
近年来,扩散模型的最新进展在文本驱动的视觉生成领域取得了显著的进步。例如,Stable Diffusion(SD) 、DALL-E 3 和PixArt[2]等文本到图像(T2I)模型的开发,对许多下游应用产生了重大影响,其中图像编辑是最具挑战性的任务之一。对于合成或真实输入图像,图像编辑算法旨在根据用户的意图,添加、删除或替换整个目标或目标属性。
AIGC 先锋科技
2024/12/03
3560
北大和港科技提出 DiT4Edit, 用于图像编辑的扩散变换器 (Diffusion Transformer) !
YoloV9改进策略:注意力篇|Block改进|附结构图|自研基于xLSTM的注意力(全网首发)
本文使用Vision-LSTM的xLSTM改进YoloV9的RepNCSPELAN4结构,增加自研的注意力机制,取得了不错的得分。如果大家想发顶会,或者比较好的期刊,可以优先考虑!
AI浩
2024/10/22
3080
YoloV9改进策略:注意力篇|Block改进|附结构图|自研基于xLSTM的注意力(全网首发)
VSSD 在图像分类、检测与分割中的应用, 刷新基于 SSM 的模型 SOTA 榜 !
近年来,由Vision Transformer(ViT)[9]引领的视觉 Transformer (vision transformers)在计算机视觉领域取得了巨大成功。得益于注意力机制的全局感受野和强大的信息建模能力,基于视觉 Transformer 的模型在分类[7]、检测[32]和分割[66]等各项任务中均取得了显著进展,超越了经典的基于CNN的模型。然而,注意力机制的二次计算复杂度使得它在处理长序列的任务中资源消耗巨大,这限制了其更广泛的应用。
未来先知
2024/08/08
7440
VSSD 在图像分类、检测与分割中的应用, 刷新基于 SSM 的模型 SOTA 榜 !
推荐阅读
线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署
1110
DiffiT | 英伟达提出用于图像生成的扩散ViT架构DiffiT,达成新SOTA!
8650
Mamba入局遥感图像分割 | Samba: 首个基于SSM的遥感高分图像语义分割框架
8540
MatIR:融合Mamba与 Transformer 的混合图像修复模型,实验验证其显著有效性!
2160
清华 & 华为 开源U-DiTS | 利用 U-Net 架构提升扩散 Transformer 的性能和效率!
5790
清华 & 卡梅隆 & 上交大 打破计算瓶颈,DiTFastAttn 方法优化扩散 Transformer 的图像与视频生成 !
5170
从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型
830
扩散模型和Transformer梦幻联动!一举拿下新SOTA,MILA博士:U-Net已死
4830
北大 & 中科大提出 PlainMamba | 即插即用,保持高性能的同时大大减少计算量 !
1.4K0
【源头活水】Mamba-YOLO性能超越 YOLO!:SSM+CNN的新型主干网络
3.7K0
统治扩散模型的U-Net要被取代了,谢赛宁等引入Transformer提出DiT
4690
Vision Mamba:将Mamba应用于计算机视觉任务的新模型
4.7K0
DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
1K0
PPMamba 一种基于金字塔聚类局部辅助SSM的图像语义分割模型 !
4270
视频生成无需GAN、VAE,谷歌用扩散模型联合训练视频、图像,实现新SOTA
6160
西交大 & 上海 AI Lab 提出 HRVMAMBA 用于高分辨率视觉状态空间模型,助力图像分类、人体姿态估计和语义分割等!
3770
英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025
2340
北大和港科技提出 DiT4Edit, 用于图像编辑的扩散变换器 (Diffusion Transformer) !
3560
YoloV9改进策略:注意力篇|Block改进|附结构图|自研基于xLSTM的注意力(全网首发)
3080
VSSD 在图像分类、检测与分割中的应用, 刷新基于 SSM 的模型 SOTA 榜 !
7440
相关推荐
线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档