基于场景上下文感知的光学遥感图像分类方法OA北大核心CSTPCD
光学遥感图像分类是对地观测领域的关键技术之一。近年来,研究人员提出利用深度神经网络对光学遥感图像进行分类,针对部分网络模型存在特征提取不充分的问题,本文提出了一种基于场景上下文感知和注意力增强的ScEfficientNet遥感图像分类方法。该方法设计了场景上下文信息感知模块(SCDM)建模目标及其周围邻域的空间关系,利用场景上下文特征增强原始特征表示,引入卷积块注意力模块(CBAM),根据通道和空间的重要性对特征图进行加权,并结合深度可分离卷积结构提取目标判别性信息,提出了ScMBConv卷积结构。在上述工作的基础上,利用基于场景上下文感知与注意力增强的ScEfficientNet网络模型进行遥感图像分类识别。实验结果表明,ScEfficientNet在AID数据集上实现了96.8%的分类准确率,较EfficientNet提升了3.3%,参数量为5.55 M,整体性能优于VGGNet19、GoogLeNet和ViT-B等图像分类算法,验证了ScEfficientNet网络模型的有效性。
郭欣怡;张科;郭正玉;苏雨;
西北工业大学,西安710072中国空空导弹研究院,河南洛阳471009
武器工业
图像分类光学遥感图像卷积神经网络EfficientNet
《航空兵器》 2024 (003)
P.94-100 / 7
国家自然科学基金项目(62106200);航空科学基金项目(20220001053002)。
评论