Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【YOLOv8改进 - 注意力机制】Gather-Excite : 提高网络捕获长距离特征交互的能力

【YOLOv8改进 - 注意力机制】Gather-Excite : 提高网络捕获长距离特征交互的能力

原创
作者头像
YOLO大师
修改于 2024-07-26 08:32:00
修改于 2024-07-26 08:32:00
20900
代码可运行
举报
运行总次数:0
代码可运行

YOLOv8目标检测创新改进与实战案例专栏

介绍

image-20240723152139314
image-20240723152139314

摘要

虽然卷积神经网络(CNNs)中使用自下而上的局部操作符与自然图像的一些统计特性很好地匹配,但这也可能阻止这些模型捕捉上下文的长程特征交互。在这项工作中,我们提出了一种简单且轻量的方法,以更好地在CNNs中利用上下文信息。我们通过引入一对操作符来实现这一目标:聚集(gather),该操作符高效地聚合来自大空间范围的特征响应;激发(excite),将汇集的信息重新分配给局部特征。这些操作符在添加参数数量和计算复杂度方面都很便宜,并且可以直接集成到现有架构中以提高其性能。多个数据集上的实验表明,聚集-激发(gather-excite)操作符可以带来类似于增加CNN深度的好处,但成本仅为其一小部分。例如,我们发现带有聚集-激发操作符的ResNet-50在ImageNet上能够超越其101层的对应模型,而无需额外的可学习参数。我们还提出了一对参数化的聚集-激发操作符,这对进一步提高性能有帮助,并将其与最近引入的挤压-激励网络(Squeeze-and-Excitation Networks)联系起来,并分析这些变化对CNN特征激活统计的影响。

文章链接

论文地址:论文地址

代码地址:代码地址

基本原理

Gather-Excite(简称GE)框架旨在增强卷积神经网络(CNNs)中对上下文的利用能力。它引入了两个主要操作符:gather和excite,这两个操作符协同工作,提高了网络捕获长距离特征交互的能力。

技术原理

1. 动机

传统的卷积神经网络主要使用局部操作符,这些操作符虽然高效,但在捕捉长距离依赖关系方面存在局限性。这是因为它们的感受野是局部的。尽管更深的层理论上具有更大的感受野,但实际上有效感受野要小得多。这一限制妨碍了CNN利用整个图像中分布的上下文信息。

2. Gather操作符 (ξG)

Gather操作符用于从较大的空间范围内聚合特征响应。它通过汇集广泛区域的信息,使网络能够收集上下文信息。这个操作符可以通过不同的池化方法实现,如平均池化,它对指定范围内的特征值进行平均。

3. Excite操作符 (ξE)

Excite操作符将聚合的信息重新分配给局部特征。这种重新分配通过根据聚合的上下文信息重新缩放原始输入特征来实现。Excite操作符使用门控机制(通常是sigmoid函数)来调整输入特征,使其受到聚合上下文的调节。

4. 在CNN中的整合

GE操作符轻量且易于整合到现有的CNN架构中。它们被插入到ResNet等网络的残差块中,就在与恒等分支求和之前。这样的整合提高了网络的表示能力,而不会显著增加计算负担。

实现细节

1. 无参数配对

在基础实现(GE-θ−)中,gather操作符使用平均池化来聚合特征,excite操作符使用sigmoid函数来调整这些聚合。这种方法不引入额外的可学习参数,并且显著提高了性能。

2. 参数化配对

为了进一步增强框架,参数化的gather操作符被引入,通过深度卷积来应用空间滤波到独立通道上。这种方法被称为GE-θ,为gather操作符添加了可学习参数,进一步提高了性能。

性能和优势

  1. ImageNet分类:实验表明,将GE操作符集成到ResNet-50中,其性能优于更深的ResNet-101,展示了上下文利用的效率。
  2. 泛化能力:GE框架在其他架构和任务中也表现出良好的泛化能力,如在MS COCO上的Faster R-CNN目标检测和CIFAR-10/100上的分类任务。
  3. 计算效率:这些操作符计算成本低,不会显著增加网络的参数数量或计算复杂度,适合资源受限的环境。

核心代码

代码语言:python
代码运行次数:0
运行
AI代码解释
复制

task与yaml配置

详见:https://blog.csdn.net/shangyanaf/article/details/140637601

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
YoloV8改进策略:Block改进|EVC,提高小目标的检测能力|附代码+改进方法
本文介绍了《Centralized Feature Pyramid for Object Detection》论文中的内容,该论文提出了一种用于目标检测的中心化特征金字塔(CFP)网络。该网络基于全局显式中心化调控方案,旨在解决现有目标检测方法中过度关注层间特征交互而忽略层内特征调节的问题。论文通过提出空间显式视觉中心方案和全局集中调控方法,实现了对特征金字塔的全面和差异化特征表示,从而在目标检测任务中取得了性能提升。
AI浩
2024/12/05
1.3K0
YoloV8改进策略:Block改进|EVC,提高小目标的检测能力|附代码+改进方法
YoloV8改进策略:注意力改进|Neck层改进|SCSA,探索空间与通道注意力之间的协同效应|即插即用
https://arxiv.org/pdf/2407.05128 通道注意力和空间注意力分别为各种下游视觉任务在提取特征依赖性和空间结构关系方面带来了显著改进。通道注意力和空间注意力的结合使用被广泛认为有利于进一步提升性能;然而,通道注意力和空间注意力之间的协同作用,尤其是在空间引导和缓解语义差异方面,尚未得到深入研究。这促使我们提出了一种新的空间与通道协同注意模块(SCSA),该模块涉及我们在多个语义层面上对空间注意力和通道注意力之间协同关系的研究。我们的SCSA由两部分组成:可共享多语义空间注意力(SMSA)和渐进通道自注意力(PCSA)。SMSA整合了多语义信息,并利用渐进压缩策略将判别性空间先验注入到PCSA的通道自注意力中,有效引导通道再校准。此外,PCSA中基于通道单头自注意力机制的稳健特征交互进一步缓解了SMSA中不同子特征之间多语义信息的差异。我们在七个基准数据集上进行了大量实验,包括在ImageNet-1K上的分类、在MSCOCO上的目标检测、在ADE20K上的分割以及四个其他复杂场景检测数据集。实验结果表明,我们提出的SCSA不仅超越了当前的即插即用型最先进注意力方法,而且在各种任务场景中展现出增强的泛化能力。代码和模型可在以下网址获取:https://github.com/HZAIZJNU/SCSA。
AI浩
2025/01/02
6520
YoloV8改进策略:注意力改进|Neck层改进|SCSA,探索空间与通道注意力之间的协同效应|即插即用
即插即用注意力机制 | ResNet50+DSA注意力还可以再挣扎挣扎!!!
卷积神经网络(CNNs)在结构上设计用于通过应用卷积核实现的卷积滤波器来利用局部空间层次。尽管这使得它们在涉及局部空间模式的任务上既高效又有效,但其固有的设计限制了它们的感受野,可能会阻碍不在内核边界内的相关信息的全面集成。
集智书童公众号
2023/11/28
3K0
即插即用注意力机制 | ResNet50+DSA注意力还可以再挣扎挣扎!!!
YoloV8改进策略:Block改进|细节增强注意力模块(DEAB)|即插即用
DEA-Net通过提出细节增强注意力模块(DEAB),在单幅图像去雾任务中取得了显著成果。将该模块应用于YoloV8中,通过替换Bottleneck模块,进一步提升了目标检测任务的准确性和鲁棒性,同时保持了较高的计算效率。这一改进为深度学习在图像处理和计算机视觉领域的应用提供了新的思路和方法。
AI浩
2024/12/19
5380
YoloV8改进策略:Block改进|细节增强注意力模块(DEAB)|即插即用
YoloV8改进策略:注意力改进|VOLO,视觉识别中的视觉展望器|即插即用|附代码+改进方法
本文参考的是《VOLO:视觉识别中的视觉展望器》一文,该论文主要讨论了视觉识别领域中卷积神经网络(CNNs)与视觉转换器(ViTs)的性能对比,并提出了一个新的模型架构——Vision Outlooker(VOLO)。VOLO通过引入一种新颖的前景注意力机制(Outlook Attention),在ImageNet分类任务上实现了卓越的性能,且能够很好地迁移到下游任务,如语义分割。
AI浩
2024/11/13
1.4K0
YoloV8改进策略:注意力改进|VOLO,视觉识别中的视觉展望器|即插即用|附代码+改进方法
YoloV8改进策略:卷积篇|大感受野的小波卷积|即插即用
论文介绍了一种新的WTConv模块,该模块通过利用小波变换有效地增加了卷积的感受野,并作为深度卷积的即插即用替代品在多个计算机视觉任务中表现出色。使用WTConv替换YoloV8的Conv模块有望带来类似的改进效果。
AI浩
2024/10/28
1.4K0
YoloV8改进策略:卷积篇|大感受野的小波卷积|即插即用
Squeeze-and-Remember 模块,革新卷积神经网络的特征检测能力 !
卷积神经网络(CNNs)在机器学习领域尤其是图像处理方面实现了革命性的变革。它们的功能核心在于卷积层,这些层从图像中提取出一系列特征,以及全连接层(FC),这些层对特征进行解释以进行分类[1,2]。此外,注意力机制,例如Squeeze-and-Excitation(SE)块[3],也启发了作者提出的块的命名,进一步优化了特征处理,从而提高模型性能。
未来先知
2024/10/21
1370
Squeeze-and-Remember 模块,革新卷积神经网络的特征检测能力 !
YoloV8改进:Neck层改进|使用ContextAggregation模块改善Neck的输出特征|即插即用
在本文中,我们创新性地将ContextAggregation模块引入到了YoloV8模型中,特别是在其Neck部分的三个输出特征中融入了该模块,从而实现了显著的性能提升。ContextAggregation模块的核心优势在于其强大的多尺度上下文聚合能力。通过该模块,YoloV8能够更有效地捕捉和利用图像中的全局视觉信息,特别是针对遥感图像中普遍存在的尺度变化严重、对比度低和分布密集等挑战,这一能力显得尤为重要。模块在特征域、空间域和实例域中分别进行上下文信息的聚合,从而极大地增强了目标特征的区分性,提高了目标检测和实例分割的准确性。
AI浩
2024/10/22
2690
YoloV8改进:Neck层改进|使用ContextAggregation模块改善Neck的输出特征|即插即用
Yolov8改进:用于微小目标检测的上下文增强和特征细化网络ContextAggregation,助力小目标检测
摘要 卷积神经网络(CNNs)在计算机视觉中无处不在,具有无数有效和高效的变化。最近,Container——最初是在自然语言处理中引入的——已经越来越多地应用于计算机视觉。早期的用户继续使用CNN的骨干,最新的网络是端到端无CNN的Transformer解决方案。最近一个令人惊讶的发现表明,一个简单的基于MLP的解决方案,没有任何传统的卷积或Transformer组件,可以产生有效的视觉表示。虽然CNN、Transformer和MLP-Mixers可以被视为完全不同的架构,但我们提供了一个统一的视图,表明它们实际上是在神经网络堆栈中聚合空间上下文的更通用方法的特殊情况。我们提出了Container(上下文聚合网络),一个用于多头上下文聚合的通用构建块,它可以利用Container的长期交互作用,同时仍然利用局部卷积操作的诱导偏差,导致更快的收敛速度,这经常在CNN中看到。我们的Container架构在ImageNet上使用22M参数实现了82.7%的Top-1精度,比DeiT-Small提高了2.8,并且可以在短短200个时代收敛到79.9%的Top-1精度。比起相比的基于Transformer的方法不能很好地扩展到下游任务依赖较大的输入图像的分辨率,我们高效的网络,名叫CONTAINER-LIGHT,可以使用在目标检测和分割网络如DETR实例,RetinaNet和Mask-RCNN获得令人印象深刻的检测图38.9,43.8,45.1和掩码mAP为41.3,与具有可比较的计算和参数大小的ResNet-50骨干相比,分别提供了6.6、7.3、6.9和6.6 pts的较大改进。与DINO框架下的DeiT相比,我们的方法在自监督学习方面也取得了很好的效果。
AI小怪兽
2023/10/23
1.3K0
清华大学提出ACmix | 这才是Self-Attention与CNN正确的融合范式,性能速度全面提升
因此,两个模块的第一阶段都包含了类似的操作。更重要的是,与第二阶段相比,第一阶段的计算复杂度(通道的平方)占主导地位。 这个观察结果自然地导致了这两个看似不同的范式的优雅集成,即,一个混合模型,它既兼顾Self-Attention和Convolution的优点,同时与Convolution或Self-Attention对应的模型相比,具有更小的计算开销。大量的实验表明,本文方法在图像识别和下游任务上取得了持续改进的结果。
集智书童公众号
2021/12/02
2.8K0
清华大学提出ACmix | 这才是Self-Attention与CNN正确的融合范式,性能速度全面提升
注意力机制又一大作!DCANet:学习卷积神经网络的连接注意力
【导读】今天给大家分享一篇关于注意力机制方面的优秀论文,该论文提出了深度连接注意力网络(DCANet),这是一种新颖的设计,在不改变CNN模型内部结构的情况下可以大幅提升注意力模块的性能。这个工作也证明了注意力单元之间不同的连接方式和注意力模块间信息交流的重要性。
深度学习技术前沿公众号博主
2020/08/18
4K0
注意力机制又一大作!DCANet:学习卷积神经网络的连接注意力
【YOLOv8改进- Backbone主干】BoTNet:基于Transformer,结合自注意力机制和卷积神经网络的骨干网络
我们提出了BoTNet,这是一种概念上简单但功能强大的骨干架构,结合了自注意力机制,用于图像分类、目标检测和实例分割等多个计算机视觉任务。通过仅在ResNet的最后三个瓶颈块中用全局自注意力替换空间卷积,并且没有其他更改,我们的方法显著提高了实例分割和目标检测的基线性能,同时减少了参数,且在延迟方面的开销极小。通过设计BoTNet,我们还指出带有自注意力的ResNet瓶颈块可以视为Transformer块。无需任何额外的技巧,BoTNet在使用Mask R-CNN框架时,在COCO实例分割基准上达到了44.4%的Mask AP和49.7%的Box AP,超过了之前ResNeSt 67在COCO验证集上发布的单模型和单尺度的最好结果。最后,我们提出了BoTNet设计在图像分类中的简单适应性,生成的模型在ImageNet基准上实现了84.7%的top-1准确率,同时在TPU-v3硬件上的“计算”时间比流行的EfficientNet模型快1.64倍。我们希望这种简单而有效的方法将作为未来自注意力模型研究的强大基线。
YOLO大师
2024/07/26
5720
即插即用 | 高效多尺度注意力模型成为YOLOv5改进的小帮手
随着深度卷积神经网络(CNNs)的发展,更引人注目的网络拓扑结构被应用于图像分类和目标检测任务领域。当将神经网络扩展到多个卷积层时,它表现出增强学习特征表示的显著能力。然而,它导致堆叠更多的深度卷积对应方法,并且需要消耗大量的内存和计算资源,这是构建深度CNN的主要缺点。作为一种替代方式,注意力机制方法由于其灵活的结构特征,不仅加强了对更具鉴别性的特征表示的学习,而且可以很容易地插入到神经网络的主干架构中。因此,注意力机制引起了计算机视觉研究界的极大兴趣。
公众号-arXiv每日学术速递
2023/08/26
5.3K0
即插即用 | 高效多尺度注意力模型成为YOLOv5改进的小帮手
YoloV8改进策略:注意力改进|引入DeBiLevelRoutingAttention注意力模块(全网首发)
在计算机视觉领域,目标检测任务的性能提升一直是研究热点。我们基于对YoloV8模型的深入理解,创新性地引入了DeBiLevelRoutingAttention(简称DBRA)注意力模块,旨在进一步增强模型的特征提取能力和目标检测精度。
AI浩
2024/10/22
8580
YoloV8改进策略:注意力改进|引入DeBiLevelRoutingAttention注意力模块(全网首发)
Container: Context Aggregation Network
卷积神经网络(CNNs)在计算机视觉中无处不在,具有无数有效和高效的变化。最近,Container——最初是在自然语言处理中引入的——已经越来越多地应用于计算机视觉。早期的用户继续使用CNN的骨干,最新的网络是端到端无CNN的Transformer解决方案。最近一个令人惊讶的发现表明,一个简单的基于MLP的解决方案,没有任何传统的卷积或Transformer组件,可以产生有效的视觉表示。虽然CNN、Transformer和MLP-Mixers可以被视为完全不同的架构,但我们提供了一个统一的视图,表明它们实际上是在神经网络堆栈中聚合空间上下文的更通用方法的特殊情况。我们提出了Container(上下文聚合网络),一个用于多头上下文聚合的通用构建块,它可以利用Container的长期交互作用,同时仍然利用局部卷积操作的诱导偏差,导致更快的收敛速度,这经常在CNN中看到。我们的Container架构在ImageNet上使用22M参数实现了82.7%的Top-1精度,比DeiT-Small提高了2.8,并且可以在短短200个时代收敛到79.9%的Top-1精度。比起相比的基于Transformer的方法不能很好地扩展到下游任务依赖较大的输入图像的分辨率,我们高效的网络,名叫CONTAINER-LIGHT,可以使用在目标检测和分割网络如DETR实例,RetinaNet和Mask-RCNN获得令人印象深刻的检测图38.9,43.8,45.1和掩码mAP为41.3,与具有可比较的计算和参数大小的ResNet-50骨干相比,分别提供了6.6、7.3、6.9和6.6 pts的较大改进。与DINO框架下的DeiT相比,我们的方法在自监督学习方面也取得了很好的效果。
狼啸风云
2021/06/10
1.4K0
YoloV8改进策略:BackBone改进|Next-ViT,下一代视觉Transformer,用于现实工业场景中的高效部署
由于复杂的注意力机制和模型设计,大多数现有的视觉Transformer(ViTs)在实际的工业部署场景中,如TensorRT和CoreML,无法像卷积神经网络(CNNs)那样高效运行。这提出了一个明显的挑战:能否设计出一个视觉神经网络,既能像CNNs一样快速推理,又能像ViTs一样强大?在这项工作中,我们提出了一种下一代视觉Transformer,用于在实际工业场景中高效部署,即Next-ViT,它从延迟/准确性权衡的角度主导了CNNs和ViTs。Next Convolution Block(NCB)和Next Transformer Block(NTB)分别开发,以部署友好的机制捕获局部和全局信息。然后,设计了Next Hybrid Strategy(NHS),以高效的混合范式堆叠NCB和NTB,从而在各种下游任务中提升性能。广泛的实验表明,Next-ViT在各种视觉任务的延迟/准确性权衡方面显著优于现有的CNNs、ViTs和CNN-Transformer混合架构。在TensorRT上,Next-ViT在COCO检测上超过了ResNet 5.5 mAP(从40.4到45.9),在ADE20K分割上超过了(从38.8%到46.5%),延迟相似。同时,它与CSWin的性能相当,推理速度提高了3.6倍。在CoreML上,Next-ViT在COCO检测上超过了EfficientFormer 4.6 mAP(从42.6到47.2),在ADE2OK分割上超过了3.5% mIoU(从45.1%到48.6%),延迟相似。我们的代码和模型已公开:https://github.com/bytedance/Next-ViT。
AI浩
2024/10/22
3810
YoloV8改进策略:BackBone改进|Next-ViT,下一代视觉Transformer,用于现实工业场景中的高效部署
又改YOLO | 项目如何改进YOLOv5?这篇告诉你如何修改让检测更快、更稳!!!
交通标志检测对于无人驾驶系统来说是一项具有挑战性的任务,尤其是多尺度目标检测和检测的实时性问题。在交通标志检测过程中,目标的规模变化很大,会对检测精度产生一定的影响。特征金字塔是解决这一问题的常用方法,但它可能会破坏交通标志在不同尺度上的特征一致性。而且,在实际应用中,普通方法难以在保证实时检测的同时提高多尺度交通标志的检测精度。 本文提出了一种改进的特征金字塔模型AF-FPN,该模型利用自适应注意模块(adaptive attention module, AAM)和特征增强模块(feature enhancement module, FEM)来减少特征图生成过程中的信息丢失,进而提高特征金字塔的表示能力。将YOLOv5中原有的特征金字塔网络替换为AF-FPN,在保证实时检测的前提下,提高了YOLOv5网络对多尺度目标的检测性能。 此外,提出了一种新的自动学习数据增强方法,以丰富数据集,提高模型的鲁棒性,使其更适合于实际场景。在100K (TT100K)数据集上的大量实验结果表明,与几种先进方法相比,本文方法的有效性和优越性得到了验证。
集智书童公众号
2021/12/22
4.2K0
又改YOLO | 项目如何改进YOLOv5?这篇告诉你如何修改让检测更快、更稳!!!
YoloV8改进策略:BackBone改进|PoolFormer赋能YoloV8,视觉检测性能显著提升的创新尝试
在深度学习的广阔领域中,目标检测作为计算机视觉的基石任务之一,始终吸引着研究者的广泛关注。近期,我们大胆尝试将前沿的PoolFormer主干网络引入经典的目标检测框架YoloV8中,这一创新性融合不仅为YoloV8注入了新的活力,更在检测精度与效率上实现了双重飞跃,成为目标检测领域的一股强劲新风。
AI浩
2024/10/22
4420
YoloV8改进策略:BackBone改进|PoolFormer赋能YoloV8,视觉检测性能显著提升的创新尝试
YoloV8改进策略:上采样改进:CARAFE:轻量级上采样|即插即用|附改进方法+代码
https://arxiv.org/pdf/1905.02188 特征上采样是许多现代卷积网络架构(例如特征金字塔)中的关键操作。其设计对于诸如目标检测和语义/实例分割等密集预测任务至关重要。在本文中,我们提出了内容感知特征重组(CARAFE),这是一种通用、轻量级且高度有效的算子,以实现这一目标。CARAFE具有几个吸引人的特性:(1)大视野。与仅利用子像素邻域的前期工作(例如双线性插值)不同,CARAFE可以在大感受野内聚合上下文信息。(2)内容感知处理。与对所有样本使用固定核(例如反卷积)不同,CARAFE支持针对实例的内容感知处理,可以即时生成自适应核。(3)轻量级且计算速度快。CARAFE引入的计算开销很小,并且可以轻松集成到现代网络架构中。我们在目标检测、实例/语义分割和图像修复的标准基准上进行了综合评估。CARAFE在所有任务中都表现出一致且显著的增益(分别为、、、),且计算开销可忽略不计。它有望成为未来研究的强大构建块。代码和模型可在https://github.com/open-mmlab/mmdetection获取。
AI浩
2024/11/07
6840
YoloV8改进策略:上采样改进:CARAFE:轻量级上采样|即插即用|附改进方法+代码
A4-Unet:用于肿瘤分割的可变多尺度注意网络 !
近年来,脑肿瘤分割模型在诊断中发挥了重要作用。然而,它们面临着MRI复杂性和多变性的挑战,包括不规则形状和边界模糊,导致噪声、误分类和不完整的分割,从而限制了其准确性。
未来先知
2025/01/20
4380
A4-Unet:用于肿瘤分割的可变多尺度注意网络 !
推荐阅读
YoloV8改进策略:Block改进|EVC,提高小目标的检测能力|附代码+改进方法
1.3K0
YoloV8改进策略:注意力改进|Neck层改进|SCSA,探索空间与通道注意力之间的协同效应|即插即用
6520
即插即用注意力机制 | ResNet50+DSA注意力还可以再挣扎挣扎!!!
3K0
YoloV8改进策略:Block改进|细节增强注意力模块(DEAB)|即插即用
5380
YoloV8改进策略:注意力改进|VOLO,视觉识别中的视觉展望器|即插即用|附代码+改进方法
1.4K0
YoloV8改进策略:卷积篇|大感受野的小波卷积|即插即用
1.4K0
Squeeze-and-Remember 模块,革新卷积神经网络的特征检测能力 !
1370
YoloV8改进:Neck层改进|使用ContextAggregation模块改善Neck的输出特征|即插即用
2690
Yolov8改进:用于微小目标检测的上下文增强和特征细化网络ContextAggregation,助力小目标检测
1.3K0
清华大学提出ACmix | 这才是Self-Attention与CNN正确的融合范式,性能速度全面提升
2.8K0
注意力机制又一大作!DCANet:学习卷积神经网络的连接注意力
4K0
【YOLOv8改进- Backbone主干】BoTNet:基于Transformer,结合自注意力机制和卷积神经网络的骨干网络
5720
即插即用 | 高效多尺度注意力模型成为YOLOv5改进的小帮手
5.3K0
YoloV8改进策略:注意力改进|引入DeBiLevelRoutingAttention注意力模块(全网首发)
8580
Container: Context Aggregation Network
1.4K0
YoloV8改进策略:BackBone改进|Next-ViT,下一代视觉Transformer,用于现实工业场景中的高效部署
3810
又改YOLO | 项目如何改进YOLOv5?这篇告诉你如何修改让检测更快、更稳!!!
4.2K0
YoloV8改进策略:BackBone改进|PoolFormer赋能YoloV8,视觉检测性能显著提升的创新尝试
4420
YoloV8改进策略:上采样改进:CARAFE:轻量级上采样|即插即用|附改进方法+代码
6840
A4-Unet:用于肿瘤分割的可变多尺度注意网络 !
4380
相关推荐
YoloV8改进策略:Block改进|EVC,提高小目标的检测能力|附代码+改进方法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验