欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 科技 > IT业 > YOLO改进|常见注意力机制比较篇

YOLO改进|常见注意力机制比较篇

2025/6/30 10:42:23 来源:https://blog.csdn.net/piupiu78/article/details/145689911  浏览:    关键词:YOLO改进|常见注意力机制比较篇

You Only Look Once (YOLO)是一种流行的目标检测算法,它可以在一张图像中同时检测多个对象。YOLO采用各种注意力机制,以确定图像中的目标位置和类别。下面是一些常见的注意力机制,以及它们之间的对比:

  • 空间注意力机制(spatial atention):该机制基于观察到的图像特征显著性来调整每个目标区域的权重,它可以描述图像中物体之间的空间相关性,提高检测结果的准确度。
  • 通道注意力机制(channel Attention):该机制主要关注特征通道之间的相关性。通过计算每个通道的平均值和标准差,来确定特征通道的权重。它可以提高网络对特定目标的敏感性,加强注意力聚焦。
  • 时间注意力机制(temporal Aftention):该机制是一种针对视频目标检测的注意力机制。 在基于YOLO的视频目标检测中,时序注意力机制用于加强目标的连续性。
  • 利用回顾信息的注意力机制(review Atention):该机制主要关注检测过程中的反馈信息。 回顾机制允许网络"重温”以前的检测结果,从而使网络更加适应不同种类的图像。

综合而言,YOLO通过使用不同的注意力机制,以最大限度地提高检测的准确度和稳定性。每种注意力机制都有其独特的优点和应用,选择合适的机制需要根据具体应用来进行判断。

1、SE注意力机制

SE模块显式地建立特征通道之间的相互依赖关系,通过学习自动获取每个特征通道的重要程度,从而提升有用特征并抑制不重要的特征。
在这里插入图片描述

小结:在通道注意力机制SE中,学习各个通道的重要性时,是先对特征图的空间进行压缩,然后在通道维度进行学习,得到各个通道的重要性。

2、GC注意力机制

GC注意力机制采用自注意力机制建模query对关系,或query-independent全局上下文建模,保留了SE模块的轻量性,同时拥有全局上下文建模能力。

3、CBAM注意力机制

CBAM模块融合了通道注意力和空间注意力,CBAM的模型结构如下,它对输入的特征图,首先进行通道注意力模块处理;得到的结果,再经过空间注意力模块处理,最后得到调整后特征。

通过计算feature map的attention map,并与输入的feature map相乘,实现特征的自适应学习。作为即插即用的注意力模块,轻量化是它的特性之一。
在这里插入图片描述

4、DANet 注意力机制

DANet注意力机制结合了位置注意力和通道注意力,可建模特征之间完整的依赖关系。

5、RFB(感受野模块)

RFB模块模仿人眼多尺度感受野。它使用Inception 设计和空洞卷积来扩大感知范围。

6、BAM(瓶颈注意模块)

BAM模块可以轻松集成到任意CNN中,通过通道和空间两条路径学习注意力。

7、ECA注意力机制

ECA注意力机制是SE机制的改进版本,也是一种通道注意力实现。它通过全局平均池化层后的1x1卷积层直接建模通道间依赖,避免了SE中全连接层带来的维度缩减问题,有效捕获跨通道交互,同时参数更少。

8、SC注意力机制

SC注意力机制使用自校准操作,自适应学习各位置周围的远程空间依赖。它打破了小范围卷积的限制,增强模型对全局区域的建模能力。设计简单通用,可增强标准卷积层的性能,不引入额外参数和复杂性

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词