SE 注意力模块

一、SE 模块的结构

在这里插入图片描述
SE 模块主要包含 Squeeze 和 Excitation 两部分。W,H 表示特征图宽,高。C 表示通道数,输入特征图大小为 W×H×C。

1、压缩(Squeeze)

第一步是压缩(Squeeze)操作,如下图所示:
在这里插入图片描述

这个操作就是一个全局平均池化(global average pooling)。经过压缩操作后特征图被压缩为1×1×C向量

2、激励(Excitation)

接下来就是激励(Excitation)操作,如下图所示:
在这里插入图片描述

由两个全连接层组成,其中SERatio是一个缩放参数,这个参数的目的是为了减少通道个数从而降低计算量
第一个全连接层有C*SERatio个神经元,输入为1×1×C,输出1×1×C×SERadio。
第二个全连接层有C个神经元,输入为1×1×C×SERadio,输出为1×1×C。

3、scale 操作

最后是 scale 操作,在得到 1×1×C 向量之后,就可以对原来的特征图进行 scale 操作了。很简单,就是通道权重相乘,原有特征向量为W×H×C,将SE模块计算出来的各通道权重值分别和原特征图对应通道的二维矩阵相乘,得出的结果输出。
这里我们可以得出SE模块的属性:
参数量 = 2×C×C×SERatio
计算量 = 2×C×C×SERatio
总体来讲SE模块会增加网络的总参数量,总计算量,因为使用的是全连接层计算量相比卷积层并不大,但是参数量会有明显上升

二、SE 模块的结构

SE 模块根据注意的方面不同分为通道注意力 CAM 和空间注意了 SAM,一个关注“what”,一个关注“where”,两者可以并行或者串行使用

1、通道注意力 CAM

通道注意力通过混合通道维度的信息来进行特征提取。
在这里插入图片描述
对于输入的 feature map F,首先在每个空间位置上应用 MaxPooling、AvgPooling,得到两个 C11 的向量,然后分别送入一个共享的包含两层 FC 的 MLP,最后将两者相加融合,经过一个激活函数,得到通道注意力 CAM,其公式表达为:
在这里插入图片描述
Pytorch 实现:

class ChannelAttention(nn.Module):
    def __init__(self, in_planes, ratio=16):
        super(ChannelAttention, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.max_pool = nn.AdaptiveMaxPool2d(1)
        self.fc1   = nn.Conv2d(in_planes, in_planes // 16, 1, bias=False)
        self.relu1 = nn.ReLU()
        self.fc2   = nn.Conv2d(in_planes // 16, in_planes, 1, bias=False) 
        self.sigmoid = nn.Sigmoid()
 
    def forward(self, x):
        avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x))))
        max_out = self.fc2(self.relu1(self.fc1(self.max_pool(x))))
        atten = self.sigmoid(avg_out + max_out)        # 计算得到的注意力
        return x * atten         # 将输入矩阵乘以对应的注意力

2、空间注意力 SAM

在这里插入图片描述
首先在每个通道上应用 MaxPooling、AvgPooling,得到两个 1HW 的 feature map,然后按通道 concat 起来,送入一个标准卷积层,经过激活函数之后就得到了空间注意力 SAM,其公式表达为:
在这里插入图片描述

Pytorch 实现:

class SpatialAttention(nn.Module):
    def __init__(self, kernel_size=7):
        super(SpatialAttention, self).__init__()
 
        assert kernel_size in (3, 7), 'kernel size must be 3 or 7'
        padding = 3 if kernel_size == 7 else 1
 
        self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False)
        self.sigmoid = nn.Sigmoid()
 
    def forward(self, x):
        avg_out = torch.mean(x, dim=1, keepdim=True)
        max_out, _ = torch.max(x, dim=1, keepdim=True)
        atten = torch.cat([avg_out, max_out], dim=1)
        atten = self.conv1(atten)       # 计算得到的注意力
        atten = self.sigmoid(atten)      # 将输入矩阵乘以对应的注意力
        return x * atten       # 将输入矩阵乘以对应的注意力

3、CBAM模块(Convolutional Block Attention Module)

该注意力模块( CBAM ),可以在通道和空间维度上进行 Attention 。其包含两个子模块 Channel Attention Module(CAM) 和 Spartial Attention Module(SAM)。
在这里插入图片描述

SE 注意力模块 原理分析与代码实现
黎国溥
09-24 1万+
本文介绍SE注意力模块,它是在SENet中提出的,SENet是ImageNet 2017的冠军模型;SE模块常常被用于CV模型中,能较有效提取模型精度,所以给大家介绍一下它的原理,设计思路,代码实现,如何应用在模型中。后面还会介绍其它注意力模型:SK-Nets、CBAM、DANet、ECA-Net、CA等注意力模块
常用的即插即用的注意力机制模块SE、CBAM)
weixin_43980331的博客
09-08 1万+
CBAM注意力机制是由通道注意力机制(channel)和空间注意力机制(spatial)组成。 传统基于卷积神经网络的注意力机制更多的是关注对通道域的分析,局限于考虑特征图通道之间的作用关系。CBAM从 channel 和 spatial 两个作用域出发,引入空间注意力和通道注意力两个分析维度,实现从通道到空间的顺序注意力结构。空间注意力可使神经网络更加关注图像中对分类起决定作用的像素区域而忽略无关紧要的区域,通道注意力则用于处理特征图通道的分配关系,同时对两个维度进行注意力分配增强了注意
即插即用的涨点模块注意力机制(SEAttention)详解及代码,可应用于检测、分割、分类等各种算法领域
最新发布
qq_51511878的博客
04-18 1972
什么是通道特征?通道特征(Channel Features)是指卷积神经网络(CNN)中每个卷积核产生的输出。一个通道对应于网络中的一个卷积核,而每个通道的输出表示该卷积核在输入上的响应。通道特征捕捉了输入数据中不同方面的抽象信息。每个通道对应于某种特定的抽象特征,例如纹理、颜色、边缘等。通道特征在整个网络中负责提取和表示不同层次的信息。什么是通道注意力机制?通道注意力机制(Channel Attention Mechanism)是深度学习中一种用于增强通道特征捕捉能力的注意力机制。
注意力机制(一)SE模块(Squeeze-and-Excitation Networks)论文总结和代码实现
qq_45981086的博客
05-26 2万+
本文提出的SE模块,这是一种新颖的架构单元,旨在通过使网络能够执行动态通道特征重新校准来提高网络的表示能力。,第一个全连接层把C个通道压缩成了C/r个通道来降低计算量,再通过一个RELU非线性激活层,第二个全连接层将通道数恢复回为C个通道,再通过Sigmoid激活得到权重s,C个feature map的通道特征都被压缩成了一个数值,这样使得生成的通道级统计数据Z就包含了上下文信息,缓解了通道依赖性的问题。,将包含全局信息的W×H×C 的特征图直接压缩成一个1×1×C的特征向量Z,
注意力机制 SE-Net 原理与 TensorFlow2.0 实现
06-06 4070
SENet 是 ImageNet 2017(ImageNet 收官赛)的冠军模型,是由WMW团队发布。具有复杂度低,参数少和计算量小的优点。且SENet 思路很简单,很容易扩展到已有网络结构如 Inception 和 ResNet 中。已经有很多工作在空间维度上来提升网络的性能,如 Inception 等,而 SENet 将关注点放在了特征通道之间的关系上。其具体策略为:通过学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征并抑制对当前任务用处不大的特征,这又叫做“特征重标定
SE (Squeeze Excitation)模块
zfjBIT的专栏
10-27 1万+
SE模块
SE通道注意力机制模块
m0_62919535的博客
01-23 1824
SE(Squeeze-and-Excitation)模块是一种引入通道注意力机制的方法,旨在让神经网络更加关注对当前任务重要的特征。首先是Squeeze操作,通过聚合跨空间维度(H × W)的特征映射来产生通道描述符,怎么理解呢?假设有一个输入的特征映射,它的维度是H × W × C,对于每个通道,执行全局平均池化操作,具体来说,对于第i个通道,计算该通道上所有空间位置的平均值。通过学习,全连接层得到的通道权重经过一个Sigmoid激活函数,将其范围限制在0到1之间。ResNet与SE-ResNet分类性能
SE注意力机制
renxingshen2022的博客
07-17 3万+
SE注意力机制虽然基础,但是非常好用,也是应用最广泛的注意力机制之一,在此记录学习
注意力机制】Squeeze Excitation模块 (SE Net);Spatial Attention Module模型 (SAM YoloV4) 以及CAM,CBAM
Bismarckczy的博客
07-04 2779
之前的 文章 很详细的写了bottleneck block的实现。 先回顾一下bottleneck的意义,网络的性能归根结底是对特征提取的优秀程度,对特征提取越好,后面的分类,检测,分割等等,就会有更好的性能。resnet不是一味的加深网络层数而提高性能的, ...
深度学习算法改进(GAM注意力-STN模块-SE模块-ODConv动态卷积-FAN注意力模块实现源码+各改进说明).zip
12-06
深度学习算法改进(GAM注意力_STN模块_SE模块_ODConv动态卷积_FAN注意力模块实现源码+各改进说明) 1、引入了3D-permutation 与多层感知器的通道注意力和卷积空间注意力模块 2、入了一个新的可学习模块--空间变换器...
yolov8结合se注意力机制提升检测效果
03-01
在这项工作中,我们专注于通道关系,并提出了一种新颖的架构单元,我们将其称为“挤压和激励”(SE)块,它通过显式建模通道之间的相互依赖性来自适应地重新校准通道方面的特征响应。我们证明,通过将这些块堆叠在...
YOLOV5 改进(增加注意力SE模块):大型飞机图像目标检测数据集
03-17
【项目对YOLOV5代码进行改进,增添了注意力机制SE模块,更多的yolov5改进,参考:https://blog.csdn.net/qq_44886601/category_12605353.html】 数据集介绍:单类别的飞机检测数据集 数据分为1类:airplane ...
YOLOV5 改进(增加注意力SE模块):大型行人图像目标检测数据集
03-17
【项目对YOLOV5代码进行改进,增添了注意力机制SE模块,更多的yolov5改进,参考:https://blog.csdn.net/qq_44886601/article/details/136780820】 数据集介绍:单类别的行人检测数据集 数据分为1类:person ...
CBAM注意力机制(MatLab代码实现)
02-29
CBAM注意力机制(MatLab代码实现)
SE模块详解
热门推荐
qq_42617455的博客
08-22 4万+
下图表示一个SE 模块。主要包含Squeeze和Excitation两部分。W,H表示特征图宽,高。C表示通道数,输入特征图大小为W×H×C。 1、压缩(Squeeze) 第一步是压缩(Squeeze)操作,如下图所示 这个操作就是一个全局平均池化(global average pooling)。经过压缩操作后特征图被压缩为1×1×C向量。 2、激励(Excitation) 接下来就是激励(Excitation)操作,如下图所示 由两个全连接层组成,其中SERatio是一个缩放参数,这个参数的目的是为
【论文阅读】SE Module 和 Attention Module
麒麒哈尔的博客
06-10 3188
目录Attention ModuleSE Module 最近阅读了两篇有关增强CNN能力的文章。CNN经过几年的研究,主流的网络框架不断的迭代,从最初的AlexNet到ResNet和DenseNet,似乎通用网络的框架的研究似乎到了一个瓶颈。这种通用的网络框架在不同的问题起着特征提取的作用,例如分割问题或是目标检测问题,那么如何在不改变大框架的情况下,进一步提升特征提取的有效性呢?研究者们通过使用...
SE注意力机制(笔记)
qq_46595902的博客
02-09 8949
最近学习se注意力,做个笔记记录一下。 上图即为SEnet的整个流程,接下来开始讲解se注意力机制,首先我们输入一张彩色图片,假设图片尺寸为4*4*3(H'=4,w'=4,c'=3),经过一个卷积操作Ftr(卷积核为2),后变成3*3*3(H=3,W=3,C=3)。 接下来进行squeeze(压缩操作),通过全局平均池化来完成,公式如下 得到Z1=5/9, Z2=5/3, Z3=4/9,得到一组1*1*3的实数。 接下来进行第二步excitation激励操作,将这组1*1*3的实数先降.
YOLOV4 -- SE注意力机制
weixin_42206075的博客
10-13 5252
YOLOV4 – SE注意力机制 在YOLOV4与YOLOV3的区别主要介绍了V3和V4之间的区别,但是仔细研究代码Tensorflow2.0—YOLO V4-tiny网络原理及代码解析(一)- 特征提取网络会发现其实在V4中还多出一个trick,那就是注意力机制! 一、概念 YOLOv4中引入注意力机制,就是希望网络能够自动学出来图片需要注意的地方。比如人眼在看一幅画的时候,不会将注意力平等地分配给画中的所有像素,而是将更多注意力分配给人们关注的地方。从实现的角度来讲,注意力机制就是通过神经网络的操作生成
deeplabv3plus加入SE注意力模块
03-30
DeepLabv3+是一种语义分割模型,可以将一张图像中的每个像素标记为属于哪一类。SE(Squeeze-and-Excitation)注意力模块是一种用于增强模型性能的技术,可以让模型更关注重要的特征。 将SE注意力模块加入DeepLabv3+模型中可以提高模型的准确性和鲁棒性。具体地,SE注意力模块可以在每个卷积层后引入一个门控机制,以便让模型更关注重要的特征。这样可以有效地减少噪声和无关特征的影响,提高模型的准确性和鲁棒性。 在实践中,可以通过在模型的最后一个卷积层前添加SE注意力模块来实现这个目标。这样可以让模型更加关注重要的特征,提高语义分割的准确性和鲁棒性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 局域网的主机如何连接外网 37257
  • 卷积神经网络如何提取特征 32249
  • Bert 模型学习 28191
  • hugging face 模型库的使用及加载 Bert 预训练模型 27740
  • 计算机网络 — 网络层 19280

分类专栏

  • 数据结构与算法 3篇
  • Java 并发编程 8篇
  • Java基础 28篇
  • 深入理解 Java 虚拟机 13篇
  • 深度学习与自然语言处理 15篇
  • 微服务Spring Cloud Alibaba 13篇
  • 计算机网络 9篇
  • 运维 2篇
  • JavaWeb 17篇
  • spring boot 19篇
  • maven 1篇
  • Redis 2篇
  • 数据库 8篇
  • Python 学习 6篇
  • 知识图谱
  • Vue 13篇
  • Git

最新评论

  • hugging face 模型库的使用及加载 Bert 预训练模型

    gfdr5: 请问如何冻结bert的参数,只进行下游任务的学习

  • Eureka 集群搭建

    末、: 如果四个或者是五个的话注册地址需要把除了自身的所有eurka 地址都写完吗

  • 计算机网络——应用层

    补天阁: 感谢博主,受益良多

  • 计算机网络 —— 数据链路层

    Suliang2013: 和计算机网络一样,请问你是不是有电子版的?

  • SE 注意力模块

    邸笠佘司: 我感觉也是,二、应该是CBAM

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • 排序算法实现及比较
  • 深度优先搜索与岛屿问题
  • Java 方法调用与虚方法
2022年6篇
2021年145篇
2020年2篇

目录

目录

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

聚圣源装修公司起名金釜山未时出生的男孩起名起名预测分析打评分好名堂宝宝起名大师莱字起名的含义姓卢的起名字梦见吃饺子胡先煦公布恋情启字起名五行书院美女光身子gba中文游戏厨卫公司起名瓷器店铺古典起名一品仵作业起名600118留言代码大全11平台全图以党员身份参加大会的北大学生辽宁移动网上营业厅免费模板网基金经理王亚伟儿童起名字大师属鼠起姓名大全绅士的品格免费生辰八字起名字软件拆除公司起名大全帮孙子起小名淀粉肠小王子日销售额涨超10倍罗斯否认插足凯特王妃婚姻让美丽中国“从细节出发”清明节放假3天调休1天男孩疑遭霸凌 家长讨说法被踢出群国产伟哥去年销售近13亿网友建议重庆地铁不准乘客携带菜筐雅江山火三名扑火人员牺牲系谣言代拍被何赛飞拿着魔杖追着打月嫂回应掌掴婴儿是在赶虫子山西高速一大巴发生事故 已致13死高中生被打伤下体休学 邯郸通报李梦为奥运任务婉拒WNBA邀请19岁小伙救下5人后溺亡 多方发声王树国3次鞠躬告别西交大师生单亲妈妈陷入热恋 14岁儿子报警315晚会后胖东来又人满为患了倪萍分享减重40斤方法王楚钦登顶三项第一今日春分两大学生合买彩票中奖一人不认账张家界的山上“长”满了韩国人?周杰伦一审败诉网易房客欠租失踪 房东直发愁男子持台球杆殴打2名女店员被抓男子被猫抓伤后确诊“猫抓病”“重生之我在北大当嫡校长”槽头肉企业被曝光前生意红火男孩8年未见母亲被告知被遗忘恒大被罚41.75亿到底怎么缴网友洛杉矶偶遇贾玲杨倩无缘巴黎奥运张立群任西安交通大学校长黑马情侣提车了西双版纳热带植物园回应蜉蝣大爆发妈妈回应孩子在校撞护栏坠楼考生莫言也上北大硕士复试名单了韩国首次吊销离岗医生执照奥巴马现身唐宁街 黑色着装引猜测沈阳一轿车冲入人行道致3死2伤阿根廷将发行1万与2万面值的纸币外国人感慨凌晨的中国很安全男子被流浪猫绊倒 投喂者赔24万手机成瘾是影响睡眠质量重要因素春分“立蛋”成功率更高?胖东来员工每周单休无小长假“开封王婆”爆火:促成四五十对专家建议不必谈骨泥色变浙江一高校内汽车冲撞行人 多人受伤许家印被限制高消费

聚圣源 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化