由于复杂的注意力机制和模型设计,大多数现有的视觉Transformer(ViTs)在实际的工业部署场景中,如TensorRT和CoreML,无法像卷积神经网络(CNNs)那样高效运行。这提出了一个明显的挑战:能否设计出一个视觉神经网络,既能像CNNs一样快速推理,又能像ViTs一样强大?在这项工作中,我们提出了一种下一代视觉Transformer,用于在实际工业场景中高效部署,即Next-ViT,它从延迟/准确性权衡的角度主导了CNNs和ViTs。Next Convolution Block(NCB)和Next Transformer Block(NTB)分别开发,以部署友好的机制捕获局部和全局信息。然后,设计了Next Hybrid Strategy(NHS),以高效的混合范式堆叠NCB和NTB,从而在各种下游任务中提升性能。广泛的实验表明,Next-ViT在各种视觉任务的延迟/准确性权衡方面显著优于现有的CNNs、ViTs和CNN-Transformer混合架构。在TensorRT上,Next-ViT在COCO检测上超过了ResNet 5.5 mAP(从40.4到45.9),在ADE20K分割上超过了(从38.8%到46.5%),延迟相似。同时,它与CSWin的性能相当,推理速度提高了3.6倍。在CoreML上,Next-ViT在COCO检测上超过了EfficientFormer 4.6 mAP(从42.6到47.2),在ADE2OK分割上超过了3.5% mIoU(从45.1%到48.6%),延迟相似。我们的代码和模型已公开:https://github.com/bytedance/Next-ViT。
完整链接
https://blog.csdn.net/m0_47867638/article/details/142325146?spm=1001.2014.3001.5501
最近,视觉Transformer(ViTs)在工业界和学术界受到了越来越多的关注,并在各种计算机视觉任务中取得了巨大成功,如图像分类、目标检测、语义分割等。然而,从现实世界的部署角度来看,CNNs仍然主导着视觉任务,因为ViTs通常比经典的CNNs慢得多,例如ResNets。有一些因素限制了Transformer模型的推理速度,包括多头自注意力(MHSA)机制的二次复杂度、不可折叠的LayerNorm和GELU层,复杂的模型设计导致频繁的内存访问和复制等。
许多工作努力使ViTs摆脱高延迟困境。例如,Swin Transformer [21]和PVT [36]试图设计更高效的空间注意力机制,以减轻MHSA的二次增长计算复杂度。其他人[5, 19, 25]考虑结合高效的卷积块和强大的Transformer块来设计CNN-Transformer混合架构,以获得准确性和延迟之间的更好权衡。巧合的是,几乎所有现有的混合架构[5, 19, 25]都在浅层阶段采用卷积块,只在最后几个阶段堆叠Transformer块。然而,我们观察到,这种混合策略很容易导致下游任务(例如分割和检测)的性能饱和。此外,我们发现现有工作中的卷积块和Transformer块无法同时具备效率和性能的特点。尽管与视觉Transformer相比,准确性-延迟权衡有所改善,但现有混合架构的整体性能仍远未令人满意。
为了解决上述问题,本工作开发了三个重要组件来设计高效的视觉Transformer网络。首先,我们引入了Next Convolution Block(NCB),它擅长使用新颖的部署友好型多头卷积注意力(MHCA)捕获视觉数据中的短期依赖信息。其次,我们构建了Next Transformer Block(NTB),NTB不仅是捕获长期依赖信息的专家,还充当轻量级和高低频信号混合器,以增强建模能力。最后,我们设计了Next Hybrid Strategy(NHS),在每个阶段以新颖的混合范式堆叠NCB和NTB,大大减少了Transformer块的比例,并保留了视觉Transformer网络在各种下游任务中的高精度。
基于上述提出的方法,我们提出了下一代视觉Transformer,用于现实工业部署场景(简称Next-ViT)。在本文中,为了进行公平比较,我们提供了一种将特定硬件上的延迟视为直接效率反馈的观点。TensorRT和CoreML分别代表服务器端和移动端设备的通用且易于部署的解决方案,有助于提供令人信服的硬件导向性能指导。有了这种直接和准确的指导,我们在图1中重新绘制了几个现有竞争模型的准确性和延迟权衡图。如图1(a)(d)所示,Next-ViT在ImageNet-1K分类任务上实现了最佳的延迟/准确性权衡。更重要的是,Next-ViT在下游任务上显示出更显著的延迟/准确性权衡优势。如图1(b)(c)所示,在TensorRT上,Next-ViT在COCO检测上超过了ResNet \mathbf{5 . 5} \mathrm{mAP}(从40.4到45.9),在ADE20K分割上超过了(从38.8 % 到46.5 %),延迟相似。Next-ViT与CSWin的性能相当,推理速度提高了。如图1(e)(f)所示,在CoreML上,Next-ViT在COCO检测上超过了EfficientFormer 4.6 mAP(从42.6到47.2),在ADE2OK分割上超过了3.5 % mIoU(从45.1 % 到48.6 %),CoreML延迟相似。
我们的主要贡献总结如下:
卷积网络。在过去的十年中,卷积神经网络(CNNs)在包括图像分类、目标检测和语义分割在内的各种计算机视觉任务中占据主导地位。ResNet [10] 使用残差连接来消除网络退化,确保网络构建得更深,并能够捕获高级抽象。DenseNet [13] 通过密集连接交替增强特征重用并连接特征图。MobileNets [12,30] 引入深度卷积和逐点卷积来构建具有小内存和低延迟的模型。ShuffleNet [46] 采用分组逐点卷积和通道混洗进一步降低计算成本。ShuffleNetv2 [24] 提出网络架构设计应考虑直接指标如速度,而不是间接指标如FLOPs。ConvNeXt [22] 回顾了视觉Transformer的设计,并提出了一个纯粹的CNN模型,该模型可以在多个计算机视觉基准测试中与SOTA层次视觉Transformer竞争,同时保持标准CNN的简单性和效率。
视觉Transformer。Transformer最初在自然语言处理(NLP)领域提出。ViT [7] 将图像分割成块,并将这些块视为单词来执行自注意力,这表明Transformer在各种视觉任务上也取得了令人印象深刻的性能。DeiT [33] 引入了特定于Transformer的师生策略。T2T-ViT [44] 引入了一种新颖的tokens-to-token (T2T) 过程,逐步将图像标记化成token,并结构化地聚合token。Swin Transformer [21] 提出了一种通用的Transformer骨干,构建了层次化特征图,并具有对图像大小的线性计算复杂度。PiT [11] 将池化层引入ViT,并展示了这些优势可以通过广泛的实验与ViT很好地协调。如今,研究人员更加关注效率,包括高效的自注意力、训练策略、金字塔设计等。
混合模型。最近的工作 [8, 19, 25, 31, 37, 48] 表明,将卷积和Transformer结合为混合架构有助于吸收两种架构的优势。BoTNet [31] 在ResNet的最后三个瓶颈块中用全局自注意力替换空间卷积。CvT [37] 在自注意力前引入了深度和逐点卷积。CMT [8] 提出了一种新的基于Transformer的混合网络,利用Transformer捕获长距离依赖和CNN建模局部特征。在MobileViT [25]中,为移动设备引入了轻量级和通用视觉Transformer。Mobile-Former [2] 结合了提出的轻量级交叉注意力来建模桥梁,这不仅计算效率高,而且具有更强的表示能力。EfficientFormer [19] 遵循维度一致的设计,平滑地利用硬件友好的4D MetaBlocks和强大的3D MHSA块。在本文中,我们设计了一系列Next-ViT模型,以更好地适应现实工业场景。
在本节中,我们首先展示了所提出的Next-ViT的概述。然后,我们讨论了Next-ViT内部的一些核心设计,包括Next Convolution Block (NCB)、Next Transformer Block (NTB) 和 Next Hybrid Strategy (NHS)。此外,我们提供了不同模型尺寸的架构规格。
我们展示了如图2所示的Next-ViT。按照惯例,Next-ViT遵循带有补丁嵌入层和每个阶段一系列卷积或Transformer块的层次金字塔架构。空间分辨率将通过每个阶段减少32倍,而通道维度将在不同阶段扩展。在本章中,我们首先深入设计信息交互的核心块,并分别开发了强大的NCB和NTB来模拟视觉数据中的短期和长期依赖性。局部和全局信息的融合也在NTB中执行,这进一步增强了建模能力。最后,我们系统地研究了集成卷积和Transformer块的方式。为了克服现有方法的固有缺陷,我们引入了Next Hybrid Strategy,它堆叠了创新的NCB和NTB来构建我们的高级CNN-Transformer混合架构。
为了展示所提出的NCB的优越性,我们首先回顾了一些经典的卷积和Transformer块的结构设计,如图3所示。ResNet [10] 提出的BottleNeck块长期以来在视觉神经网络中占据主导地位,因为它在大多数硬件平台上具有内在的归纳偏置和部署友好特性。不幸的是,与Transformer块相比,BottleNeck块的有效性不足。ConvNeXt块 [22] 通过模仿Transformer块的设计,使BottleNeck块现代化。虽然ConvNeXt块部分提高了网络性能,但其在TensorRT/CoreML上的推理速度受到低效组件的严重限制,例如7×7深度卷积、LayerNorm和GELU。Transformer块在各种视觉任务中取得了优异的成绩,其固有的优越性是由MetaFormer [43] 的范式和基于注意力的token混合模块 [21] [6] 共同赋予的。然而,由于其复杂的注意力机制,Transformer块的推理速度比BottleNeck块慢得多,在大多数现实工业场景中这是不可接受的。
为了克服上述块的缺陷,我们引入了一个Next Convolution Block (NCB),它保持了BottleNeck块的部署优势,同时获得了与Transformer块一样突出的性能。如图3(f)所示,NCB遵循了MetaFormer [43]的一般架构,这被证明对Transformer块至关重要。与此同时,高效的基于注意力的token混合器也同样重要。我们设计了一种新颖的多头卷积注意力(MHCA)作为具有部署友好卷积操作的高效token混合器。最后,我们在MetaFormer [43]的范式中用MHCA和MLP层构建了NCB。我们提出的NCB可以表述如下:
其中 表示来自 块的输入, 和 分别是MHCA和第 个NCB的输出。我们将在下一节详细介绍MHCA。
为了解决现有基于注意力的令牌混合器的高延迟问题,我们设计了一种新的注意力机制,采用高效的卷积操作,即卷积注意力(CA),以实现快速推理速度。同时,受到MHSA [34]中有效的多头设计的启发,我们构建了多头卷积注意力,它能够同时关注不同表示子空间中的信息,以及不同位置的有效局部表示学习。所提出的多头卷积注意力(MHCA)的定义可以总结如下:
在这里,MHCA从个并行表示子空间中捕获信息。表示将输入特征在通道维度上分割成多头形式。为了促进多头之间的信息交互,我们还为MHCA配备了一个投影层。CA是单头卷积注意力,可以定义为:
其中和是输入特征中的相邻令牌。O是带有可训练参数和输入令牌的内积操作。CA能够通过迭代优化可训练参数来学习局部感受野中不同令牌之间的亲和性。具体来说,MHCA的实现是通过组卷积(多头卷积)和逐点卷积来完成的,如图3(f)所示。我们在所有MHCA中统一设置头维为32,以在TensorRT上实现各种数据类型的快速推理速度。此外,我们还在NCB中采用了高效的BatchNorm(BN)和ReLU激活函数,而不是传统Transformer块中的LayerNorm(LN)和GELU,这进一步加快了推理速度。在消融研究中的实验结果表明,NCB与现有块相比具有优越性,例如BottleNeck块、ConvNext块、LSA块等。
尽管通过NCB有效地学习了局部表示,但迫切需要解决全局信息的捕获问题。Transformer块具有很强的捕获低频信号的能力,这些信号提供了全局信息(例如全局形状和结构)。然而,相关研究[27]观察到Transformer块可能在一定程度上恶化高频信息,如局部纹理信息。不同频段的信号在人类视觉系统中是不可或缺的[1][15],并且将以某种特定方式融合,以提取更基本和独特的特征。
受到这些观察的启发,我们开发了下一代Transformer块(NTB),以在轻量级机制中捕获多频段信号。此外,NTB作为一个有效的多频段信号混合器,进一步增强了整体建模能力。如图2所示,NTB首先使用高效多头自注意力(E-MHSA)捕获低频信号,可以描述为:
其中表示将输入特征在通道维度上分割成多头形式。SA是一个空间缩减自注意力操作符,受到线性SRA [35]的启发,并执行如下:
其中Attention表示一个标准注意力计算为Attention (Q, K, V)=,其中表示缩放因子。是上下文编码的线性层。是在注意力操作之前对空间维度进行下采样的avg-pool操作,以减少计算成本。具体来说,我们观察到E-MHSA模块的时间消耗也受到其通道数的很大影响。NTB因此在E-MHSA模块之前通过逐点卷积进行通道维度缩减,以进一步加速推理。引入了一个缩减比率用于通道缩减。我们还在E-MHSA模块中利用Batch Normalization以实现极其高效的部署。
此外,NTB配备了一个MHCA模块,与E-MHSA模块合作捕获多频段信号。之后,E-MHSA和MHCA的输出特征被连接起来,混合高低频信息。最后,借用一个MLP层在最后提取更基本和独特的特征。简而言之,NTB的实现可以表述如下:
其中和分别表示E-MHSA、MHCA和NTB的输出。Proj表示用于通道投影的逐点卷积层。此外,NTB统一采用BN和ReLU作为高效的归一化和激活层,而不是LN和GELU。与传统的Transformer块相比,NTB能够以轻量级机制捕获和混合多频段信息,这极大地提高了模型性能。
近期的一些研究[5,19,25,38]在将CNN和Transformer结合起来以实现高效部署方面做出了巨大努力。如图4(b)(c)所示,它们几乎无一例外地在浅层阶段采用卷积块,在最后一到两个阶段仅仅堆叠Transformer块,这在分类任务中取得了有效结果。不幸的是,我们观察到这些传统的混合策略在下游任务(例如分割和检测)上难以达到性能饱和。原因是,分类任务仅使用最后阶段的输出进行预测,而下游任务(例如分割和检测)通常依赖于每个阶段的特征以获得更好的结果。然而,传统的混合策略仅在最后几个阶段堆叠Transformer块。因此,浅层阶段未能捕获全局信息,例如对象的全局形状和结构,这对分割和检测任务至关重要。
为了克服现有混合策略的不足,我们提出了一种新的下一代混合策略(NHS),创造性地使用(N+1) * L混合范式堆叠卷积块(NCB)和Transformer块(NTB)。NHS显著提高了模型在下游任务中的性能,同时控制Transformer块的比例以实现高效部署。首先,为了赋予浅层阶段捕获全局信息的能力,我们提出了一种新的混合策略,即()模式,如图4(d)所示,每个阶段依次堆叠N个NCB和一个NTB。具体来说,Transformer块(NTB)位于每个阶段的末尾,使模型能够在浅层学习全局表示。我们进行了一系列实验来验证所提出的混合策略的优越性。不同混合策略的性能如表1所示。C表示在一阶段中均匀堆叠卷积块(NCB),T表示始终使用Transformer块(NTB)构建一阶段。特别地,表示在相应阶段使用()模式堆叠NCB和NTB。表1中的所有模型都配备了四个阶段。例如,CCCC表示在所有四个阶段中一致使用卷积块。为了公平比较,我们在类似的TensorRT延迟下构建了所有模型。更多的实现细节在第4节中介绍。如表1所示,所提出的混合策略在下游任务中显著提高了模型性能,与现有方法相比。实现了最佳的整体性能。例如,在检测中超过了CCC T 0.8 mAP,在分割中超过了。此外,的结果表明,在第一阶段放置Transformer块会恶化模型的延迟-准确性权衡。
我们进一步验证了在大型模型上的一般有效性,通过增加第三阶段的块数作为ResNet[10]。表2前三行的实验结果表明,大型模型的性能难以提升,逐渐达到饱和。这种现象表明,通过扩大()模式中的N,即简单地添加更多的卷积块,并不是最佳选择。这也意味着()模式中的N值可能严重影响模型性能。因此,我们开始通过广泛的实验探索N值对模型性能的影响。如表2(中间)所示,我们在第三阶段构建了具有不同配置的N的模型。为了进行公平比较,当N值较小时,我们堆叠L组()模式。令人惊讶的是,我们发现在模式下堆叠NCB和NTB比模式实现了更好的模型性能。它表示以适当的方式重复结合低频信号提取器和高频信号提取器可以带来更高质量的表示学习。如表2所示,第三阶段N=4的模型在性能和延迟之间实现了最佳权衡。我们通过扩大第三阶段的模式的L进一步构建了更大的模型。如表2(底部)所示,基础(L=4)和大型(L=6)模型的性能与小型模型相比显著提升,这验证了所提出的模式的一般有效性。在本文的其余部分,我们使用N=4作为基本配置。
我们使用上述下一代混合策略堆叠NCB和NTB构建Next-ViT,可以正式定义为:
其中表示阶段索引。表示NCB。表示当时的身份层,否则为NTB。最后,表示顺序堆叠阶段的操作。
为了与现有的SOTA网络进行公平比较,我们提出了三种典型的变体,即Next-ViTS/B/L。架构规格列在表3中,其中C表示每个阶段的输出通道,S表示每个阶段的步幅。此外,NTB中的通道缩减比率r统一设置为0.75,E-MHSA中的空间缩减比率s在不同阶段分别为[8, 4, 2, 1]。MLP层的扩展比率分别为NCB的3和NTB的2。E-MHSA和MHCA中的头维设置为32。对于归一化层和激活函数,NCB和NTB都使用BatchNorm和ReLU。
我们在ImageNet-1K [29]上进行图像分类实验,该数据集包含约128万张训练图像和5万张验证图像,涵盖1000个类别。为了公平比较,我们遵循最近视觉Transformer [3, 18,36,42]的训练设置,并进行小幅调整。具体来说,所有Next-ViT变体在8个V100 GPU上训练300个周期,总批量大小为2048。输入图像的分辨率调整为。我们采用AdamW [23]作为优化器,权重衰减为0.1。学习率根据余弦策略逐渐衰减,初始值为,并使用20个周期的线性预热策略对所有NextViT变体进行训练。此外,我们还采用了增加的随机深度增强[14],Next-ViT-S/B/L的最大drop-path率为0.1,0.2,0.2。带有的模型是在大规模数据集上训练的,遵循SSLD [4]。对于输入尺寸,我们对模型进行微调,周期为30个,权重衰减为,学习率为,批量大小为1024。在表4中,延迟是基于TensorRT-8.0.3框架在T4 GPU上(批量大小=8)和在iPhone12 Pro Max上的CoreML框架(iOS 16.0,批量大小=1)统一测量的。请注意,iPhone 12和iPhone 12 Pro Max都配备了相同的A14处理器。
如表4所示,与最新的最先进方法(例如CNN、ViT和混合网络)相比,我们在准确性和延迟之间实现了最佳权衡。具体来说,与著名的CNN如ResNet101 [10]相比,Next-ViT-S在TensorRT上的延迟相似,CoreML上的速度更快(从4.0毫秒提高到3.5毫秒),准确性提高了1.7%。同时,Next-ViTL在TensorRT上比EfficientNet-B5 [32]和ConvNeXt-B快4.0倍和1.4倍,在CoreML上快3.2倍和44倍,准确性相似。在先进的ViT方面,Next-ViT-S在TensorRT上的推理速度比Twins-SVT-S [3]快1.3倍,准确性提高了0.8%。Next-ViT-B在TensorRT上的推理延迟比CSwin-T [6]压缩了64%,准确性提高了0.5%。最后,与最近的混合方法相比,Next-ViT-S在TensorRT和CoreML上的速度分别比CMT-XS快1.8倍和1.4倍,准确性提高了0.7%。与EfficientFormer-L7 [19]相比,Next-ViT-L在CoreML上的运行时间减少了20%,在TensorRT上的运行时间减少了25%,性能从83.3%提高到83.6%。Next-ViT-L还获得了15%的推理延迟收益,并且性能优于TRTViT-D。这些结果证明了所提出的NextViT设计是一个有效和有前景的范式。
为了进一步验证我们的Next-ViT的能力,我们在ADE20K [47]上进行了语义分割实验,该数据集包含约20K张训练图像和2K张验证图像,涵盖150个类别。为了进行公平比较,我们也遵循先前视觉Transformer [3,21,36]在Semantic FPN [16]和UperNet [39]框架上的培训惯例。大多数模型都是在ImageNet-1k上预训练的,带有的模型是在大规模数据集上预训练的。所有模型都以的分辨率进行预训练,然后在ADE20K上以的输入尺寸进行训练。对于Semantic FPN框架,我们采用AdamW优化器,学习率和权重衰减均为0.0001。然后我们基于Next-ViT-S/B/L的随机深度0.2,训练整个网络40K次,总批量大小为32。对于在UperNet框架上的培训和测试,我们还以随机深度0.2训练模型160K次。同样使用AdamW优化器,但学习率为,总批量大小为16,权重衰减为0.01。然后我们基于单尺度和多尺度(MS)测试mIoU,尺度从0.5到1.75,间隔为0.25。对于检测和分割任务,由于Mask R-CNN和UperNet中的一些模块不容易部署在TensorRT和CoreML上,我们只测量骨干网络的延迟,以进行公平比较,测试环境与分类相同。为简化起见,统一使用的输入尺寸在表5和表6中测量延迟。
在表5中,我们与CNN、ViT和最近的混合方法进行了比较。Next-ViT-S分别超过了ResNet101 [10]和ResNeXt101-32x4d [40]的和。Next-ViT-B在TensorRT上的推理速度比CSwin-T快2.5倍,提高了。与Uniformer-S/B [17]相比,Next-ViT-B/L在CoreML上分别快了,在TensorRT上分别快了,性能提高了和。Next-ViT-B在TensorRT上的延迟比EfficientFormerL7 [19]少了38%,提高了。在UperNet [39]框架方面,Next-ViT-S在TensorRT和CoreML上的速度分别比最近的SOTA CNN模型ConvNeXt [22]快了和,MS mIoU提高了。与CSWin-S [6]相比,Next-ViT-L在TensorRT上的速度提高了,性能相似。广泛的实验表明,我们的Next-ViT在分割任务上具有出色的潜力。
接下来,我们在基于Mask R-CNN [9]框架的COCO2017 [20]上评估Next-ViT在目标检测和实例分割任务上的性能。具体来说,我们所有的模型都是在ImageNet-1K上预训练的,然后按照之前的作品[3,21,36]的设置进行微调。对于12个周期(1×)的实验,我们使用AdamW优化器,权重衰减为0.05。训练期间有500次迭代用于预热,学习率在第8和11周期下降10倍。基于36个周期(3×)的多尺度(MS)训练,模型以调整大小的图像进行训练,使得短边范围在480到800之间,长边最多为1333。学习率在第27和33周期下降10倍。其他设置与1×相同。
表6显示了使用Mask R-CNN框架的评估结果。基于1×时间表,Next-ViT-S超过了ResNet101 [10]和ResNeSt50 [45]的和。Next-ViT-L在TensorRT和CoreML上的运行时间分别比PVTv2-B4 [35]快了4.0倍和3.9倍,提高了。与EfficientFormer-L7 [19]相比,Next-ViT-B将AP从42.6提高到47.2,CoreML延迟相似,TensorRT运行时间减少了39%。NextViT-B在TensorRT和CoreML上的速度分别比TRT-ViT-D快了1.9,但仍然更快。基于3×时间表,Next-ViT显示出与1×相同的优越性。
具体来说,Next-ViT-S超过了ResNet101的,延迟相似。与Twins-SVT-S相比,NextViT-S实现了1.2的更高性能,但在TensorRT上的速度提高了3.2倍。Next-ViT-B比CSwinT高出0.5,但预测时间少了2.5倍。对于Next-ViT-L,它在目标检测和实例分割方面与CSwin [6]的性能相似,但推理速度提高了79%。
为了更好地理解我们的Next-ViT,我们通过在ImageNet-1K分类和下游任务上评估其性能来消融每个关键设计。我们还将可视化输出特征的傅里叶谱和热图,以展示Next-ViT的内在优势。
为了验证所提出的NCB的有效性,我们将Next-ViT中的NCB替换为其他著名块,如ResNet [10]中的Bottleneck、ConvNeXt [22]块、Twins [3]中的LSA块等。为了公平比较,我们在TensorRT上以类似的延迟一致使用NTB和NHS构建不同模型。
如表7所示,NCB在所有三项任务上都实现了最佳的延迟/准确性权衡,这验证了所提出的NCB的优势。例如,NCB在分类上比最近的ConvNeXt块 [10]高出2.9%,在检测上高出4.5,在分割上高出2.8%。
此外,我们探索了下一代Transformer块中缩减比率对Next-ViT整体性能的影响。如表8所述,降低缩减比率,即E-MHSA模块中的通道数,将减少模型延迟。此外,和的模型比纯Transformer模型()表现更好。这表明以适当的方式融合多频段信号将增强模型的表示学习能力。
特别地,的模型实现了最佳的延迟/准确性权衡。它在分类、检测和分割上分别比基线模型()高出0.4%、0.5和1.0%,同时更轻量级。上述结果表明了所提出的NTB块的有效性。
我们进一步研究了Next-ViT中不同归一化层和激活函数的影响。如表9所示,LN和GELU带来的性能提升微乎其微,但在TensorRT上的推理延迟显著增加。另一方面,BN和ReLU在整体任务上实现了最佳的延迟/准确性权衡。因此,我们在Next-ViT中统一使用BN和ReLU,以实现在现实工业场景中的高效部署。
为了验证我们的Next-ViT的优越性,我们在图5(a)中可视化了ResNet、Swin Transformer和Next-ViT的输出特征的傅里叶谱和热图。ResNet的谱分布表明,卷积块倾向于捕获高频信号,而难以关注低频信息。另一方面,ViT擅长捕获低频信号,但忽略了高频信号。最后,Next-ViT能够同时捕获高质量和多频段信号,这显示了NTB的有效性。
此外,如图5(b)所示,我们可以看到Next-ViT与ResNet和Swin相比,能够捕获更丰富的纹理信息和更准确的全局信息(例如边缘形状),这显示了Next-ViT更强的建模能力。
在本文中,我们提出了Next-ViT家族,它以一种新颖的策略堆叠高效的下一代卷积块和下一代Transformer块,构建了强大的CNN-Transformer混合架构,用于在移动设备和服务器GPU上高效部署。实验结果表明,Next-ViT在各种视觉任务上实现了最先进的延迟/准确性权衡,如图像分类、目标检测和语义分割。我们相信,我们的工作在视觉神经网络设计方面为学术研究和工业部署之间建立了稳定的桥梁。我们希望我们的工作能够提供新的见解,并促进更多关于现实工业部署的神经网络架构设计的研究。
YOLOv8l summary: 582 layers, 56146544 parameters, 0 gradients, 175.2 GFLOPs
Class Images Instances Box(P R mAP50 mAP50-95): 100%|██████████| 29/29 [00:02<00:00, 14.36it/s]
all 230 1412 0.968 0.983 0.991 0.753
c17 230 131 0.989 0.992 0.995 0.839
c5 230 68 0.952 1 0.99 0.828
helicopter 230 43 0.945 0.953 0.976 0.618
c130 230 85 0.974 0.988 0.994 0.658
f16 230 57 0.936 0.947 0.971 0.678
b2 230 2 0.932 1 0.995 0.749
other 230 86 0.983 0.965 0.986 0.564
b52 230 70 0.985 0.986 0.985 0.837
kc10 230 62 1 0.98 0.989 0.847
command 230 40 0.993 1 0.995 0.825
f15 230 123 1 0.951 0.995 0.694
kc135 230 91 0.993 0.989 0.991 0.696
a10 230 27 1 0.87 0.981 0.452
b1 230 20 1 0.981 0.995 0.76
aew 230 25 0.952 1 0.995 0.806
f22 230 17 0.982 1 0.995 0.79
p3 230 105 1 0.969 0.995 0.807
p8 230 1 0.848 1 0.995 0.697
f35 230 32 1 0.968 0.995 0.565
f18 230 125 0.989 0.992 0.991 0.828
v22 230 41 0.993 1 0.995 0.713
su-27 230 31 0.986 1 0.995 0.869
il-38 230 27 0.97 1 0.995 0.846
tu-134 230 1 0.85 1 0.995 0.895
su-33 230 2 1 1 0.995 0.734
an-70 230 2 0.889 1 0.995 0.895
tu-22 230 98 0.995 1 0.995 0.836