前言: 本文介绍了一个用于语义分割领域的attention模块scSE。...具体方案如下图所示:
然后开始分别介绍由SE改进的三个模块,首先说明一下图例:
cSE模块:
这个模块类似之前BAM模块里的Channel attention模块,通过观察这个图就很容易理解其实现方法,...in_tensor.shape)
out_tensor = c_se(in_tensor)
print("out shape:", out_tensor.shape)
sSE模块:
上图是空间注意力机制的实现...= self.Conv1x1(U) # U:[bs,c,h,w] to q:[bs,1,h,w]
q = self.norm(q)
return U * q # 广播机制...self.Conv1x1(U) # U:[bs,c,h,w] to q:[bs,1,h,w]
q = self.norm(q)
return U * q # 广播机制