双编码端高分辨率遥感影像语义分割算法OA北大核心
遥感影像具有多尺度对象、复杂背景、不均衡类别等特点。基于卷积神经网络(CNN)的语义分割算法难以捕捉到影像的全局特征,导致分割效果不佳。针对以上问题,利用Swin Transformer的全局特征提取能力,提出了双编码端高分辨率遥感影像语义分割算法DEGFNet。设计特征融合模块(FFB)将Swin Transformer捕获的全局特征引入编码端,应对多尺度对象带来的挑战。在Swin Transformer中设计空间交互模块(SIB),降低复杂背景样本带来的负面影响;在解码端引入全局-局部注意力模块(GLTB)和特征细化模块(FRB),来更好地利用编码端提取的信息,提高语义分割的精确性;采用交叉熵损失和Dice Loss组成的混合损失函数训练模型,减轻样本类别不均衡带来的消极影响。在Vaihingen数据集上,宏观平均F1值(mF1)、平均交并比(mIoU)和整体准确率(OA)指标分别达到91.9%、84.8%和92.4%;在LoveDA数据集上,mIoU指标达到55.0%,均展现出了更好的语义分割效果和良好的泛化性。
吴梦可;高心丹
东北林业大学计算机与控制工程学院,哈尔滨150000东北林业大学计算机与控制工程学院,哈尔滨150000
计算机与自动化
高分辨率遥感影像语义分割卷积神经网络Swin Transformer
《计算机科学与探索》 2025 (1)
P.187-195,9
国家自然科学基金(31770768)黑龙江省揭榜挂帅项目(Ztest221500001)。
评论