用于语义分割的自监督对比式表征学习OA北大核心CSTPCD
为了提升语义分割模型的精度,并减少逐像素标注大规模语义分割数据集的人力和时间成本,研究了自监督对比式表征学习的预训练方法,并结合语义分割任务的特点,设计了全局-局部交叉对比学习(GLCCL)方法。该方法将全局图像和局部分块后的一系列图像块输入到网络中分别编码全局和局部视觉表征,并通过构建包含全局对比、局部对比和全局-局部交叉对比的损失函数来指导模型训练,使得模型能够同时学习全局和局部区域的视觉表征以及跨区域语义相关性。使用该方法预训练BiSeNet再迁移到语义分割任务时,对比现有的自监督对比式表征学习和有监督预训练方法分别具有0.24%和0.9%平均交并比(MIoU)的性能提升。实验结果表明,该方法能够采用无标注的数据训练语义分割模型而实现分割效果的提升,具有一定的实用价值。
刘博翀;蔡怀宇;汪毅;陈晓冬;
天津大学精密仪器与光电子工程学院光电信息技术教育部重点实验室,天津300072
计算机与自动化
语义分割自监督表征学习对比学习深度学习
《西安电子科技大学学报》 2024 (001)
P.125-134 / 10
天津市科技计划项目(17ZXGGX00140)。
评论