首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

注意力机制发展如何了,如何学习它在各类任务中的应用?

大家好,欢迎来到我们的星球知识小卡片专栏,本期给大家分享注意力机制的发展和应用。

作者&编辑 | 言有三

1 注意力机制的作用

注意力机制的作用就是找到真正感兴趣的区域,加以处理,使其更好地完成任务,Google DeepMind提出的STN模型是一个非常优秀的代表。它可以定位目标并且学习对应的形变,然后进行预处理降低模型学习难度,可以作为基础模型嵌入任何网络,同时它也是一个空间注意力模型。

2 自注意力机制

与全连接神经网络相比,卷积神经网络在每一层是局部的,采用了较小的卷积核,感受实际对应到原始图像空间较大的区域,而且随着网络的加深,感受野增加。但是感受野毕竟不是全图,如何能够获得更大的感受野呢?Non-Local就是一个拥有全局感受野的自注意力模型。

3 通道注意力机制

SENet(Sequeeze and Excitation Net)是2017届ImageNet分类比赛的冠军网络,本质上是一个基于通道的Attention模型,它通过建模各个特征通道的重要程度,然后针对不同的任务增强或者抑制不同的通道。

4 空间注意力机制

图像中不同区域的重要性是不同的,动态容量网络(Dynamic Capacity Networks)是一个空间注意力机制网络,通过两个子网络来实现。

5 融合空间和通道注意力

STN等模型是从空间维度进行Attention,SENet等模型是从通道维度进行Attention,当然我们也可以同时使用空间Attention和通道Attention机制,以CBAM为代表。

6 其他

除了以上基本的变种,注意力机制还有非常多的研究,包括:

(1) 空间注意力模型的各种设计。

(2) 通道注意力模型的各种。

(3) 自注意力模型的各种设计。

(4) 如何对多种注意力机制进行融合。

(5) 注意力机制与残差网络,分组网络等经典结构的结合。

(6) 注意力机制在各类计算机视觉任务中的具体应用。

以上内容,如果你不想自己学习,可以去我们知识星球的网络结构1000变板块—注意力机制板块阅读,纯属自愿,不愿勿喷。

有三AI知识星球

转载文章请后台联系

侵权必究

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200426A0A2L700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券