不同光照下多模态注意力融合的车辆检测OA北大核心CSTPCD
针对现有基于单模态车辆检测算法受光照变换所导致的性能下降问题,提出了一种红外和可见光融合的多模态检测方法YOLO-MMF。该方法构建高效的双流特征提取网络,分别提取可见光图像和红外图像的特征,用DenseBlock结构代替了YOLOv5中浅层CSP模块中的瓶颈层,加强对小目标的特征提取能力;采用特征级融合机制,利用离散余弦变换获取高频信息,改善因平均池化使细节信息丢失的现象,并与自注意力机制相结合,使网络可以自发捕捉模态间潜在的互补性,从而显著提高车辆检测的性能。在DroneVehicle数据集上的实验结果证实了该方法的有效性,相比单一模态检测方式,平均检测精度分别提升了14.4个百分点和10.8个百分点,该方法在面对光照变换等复杂情况时具有较好的鲁棒性。
王佳琪;张淇;黄巍;
武汉工程大学计算机科学与工程学院,武汉430205 智能机器人湖北省重点实验室,武汉430205武汉工程大学电气学院,武汉430205
计算机与自动化
车辆检测多模态融合自注意力机制离散余弦变换
《计算机工程与应用》 2024 (016)
P.116-123 / 8
国家自然科学基金(62171327)。
评论