2026/4/18 19:15:51
网站建设
项目流程
石家庄微信网站,wordpress跳转链接,南通seo网站价格,电子商务营销推广1. 通道注意力模块#xff08;Channel Attention Module#xff09;复习
通道注意力解决的是“看什么” (What) 的问题#xff0c;即在众多的特征通道中#xff0c;哪些通道包含更有用的信息。 核心逻辑#xff1a; 双重池化#xff1a;同时使用全局平均池化 (AvgPool) …1. 通道注意力模块Channel Attention Module复习通道注意力解决的是“看什么” (What) 的问题即在众多的特征通道中哪些通道包含更有用的信息。核心逻辑双重池化同时使用全局平均池化 (AvgPool)和全局最大池化 (MaxPool)。平均池化保留全局背景最大池化捕捉最显著的特征如强边缘、高亮处。共享 MLP将池化后的向量送入一个共享的全连接层通常包含降维和升维以减少参数量学习通道间的依赖关系。权重生成将两个池化的结果相加通过Sigmoid激活函数生成 0 到 1 之间的权重最后乘回原始特征图实现对重要通道的加强和无效通道的抑制。2. 空间注意力模块Spatial Attention Module空间注意力解决的是“在哪里” (Where) 的问题即在图像的特征图中哪些位置像素点是关键区域。核心逻辑维度压缩沿着通道轴进行平均池化和最大池化把 C 个通道压缩成 2 个通道一张均值图和一张最大值图。特征融合将这两张图拼接Concat然后使用一个较大的卷积核如进行卷积。大卷积核能提供更大的感受野帮助模型理解物体的位置关系。权重生成卷积输出经过Sigmoid得到空间权重图覆盖在特征图上让模型“盯住”重点区域如猫的头部忽略背景区域。3. CBAM 的定义Convolutional Block Attention ModuleCBAM 是一种轻量级、即插即用的卷积神经网络注意力模块。定义它将“通道注意力”和“空间注意力”组合在一起。通过串行的方式先计算通道注意力再在结果上计算空间注意力对特征进行双重强化。三大特点双重维度比传统的 SE 模块仅通道注意力多了一个空间维度提升了模型定位目标的能力。即插即用它可以直接插入到任何现有的卷积网络如 ResNet, MobileNet, YOLO 等的卷积层之间无需改变原网络的主体结构。高效性它增加的参数量极少但在图像分类、目标检测等任务中通常能带来明显的性能提升。一句话总结CBAM 通过通道注意力告诉模型“什么特征重要”再通过空间注意力告诉模型“哪里重要”二者结合让特征表达更加精准。