面向跨视角地理定位的感知特征融合网络OA北大核心CSTPCD
跨视角地理定位是指同一地理目标可通过检索多个平台视角(无人机、卫星和街景)进行位置定位。这类定位任务主要挑战是不同视角点间的剧烈变化,降低了模型的检索性能。目前跨视角地理定位的网络存在以下的问题。由于地理目标具有尺度和角度的多样性,当前网络在感知目标信息时容易受到局部区域的干扰。属于同一类别中的不同视角,它们的角度差异很大。因此,提出了面向跨视角地理定位的感知特征融合网络(PFFNet)来学习位置感知特征并在每个视角之间建立语义关联。在PFFNet中的每个视角,搭建分流上下文嵌入网络(SCENet)作为骨干网络分别提取每个视角的上下文关联特征信息并构建目标位置的编码空间。在跨视角地理定位数据集University-1652上,将提出的方法与最先进的方法进行比较。实验结果表明,所提出感知特征融合网络在大规模数据集中取得了较高的自适应性能。
王嘉怡;陈子洋;袁小晨;赵艮平;
广东工业大学计算机学院,广州510006澳门理工大学应用科学学院,中国澳门999078
计算机与自动化
跨视角地理定位位置感知嵌入网络细粒度空间嵌入上下文关联特征空间
《计算机工程与应用》 2024 (003)
P.255-262 / 8
国家自然科学基金(U20A6003);国家自然科学基金广东联合基金(U1801263,U1701262,U2001201);广州市基础与应用研究项目(202201010273);广东省信息物理融合系统重点实验室(2020B1212060069);佛山市重点领域科技攻关(2020001006832)。
评论