融合双目信息的队列姿态检测OA北大核心CSTPCD
为实现队列姿态动作的准确评估,针对训练场景中踢腿高度等三维人体姿态特征难以准确测量的问题,提出融合双目信息的队列三维姿态特征检测方法。方法分为2D姿态估计和双目立体匹配两个阶段。为提高2D人体姿态检测精度,设计基于改进HRNet网络的2D姿态估计模型。首先,在主干网络引入空间通道注意力,增强特征提取能力。特征融合层采用自适应空间特征融合模块,融合网络多尺度特征。其次,采用无偏数据处理方法进行热图编解码,减小数据统计误差。最后,在模型训练时采用由粗到细的多阶段监督方法,提高关键点的检测准确率。在2D姿态估计模型基础上,采用标准相关匹配函数实现双目立体匹配,再通过坐标变换得到三维人体姿态。实验结果表明,改进的姿态估计网络有较好的精度,在COCO数据集上精度达到77.1%,在自制的队列训练数据集上精度达到86.3%,相比原网络分别提升2.2%和3.1%。在三维人体姿态的踢腿高度实验中,该方法测得平均相对误差为2.5%,充分验证了算法的有效性。
赵继发;王呈;荣英佼;
江南大学物联网工程学院,江苏无锡214122近地面探测技术重点实验室,江苏无锡214000
计算机与自动化
图像处理双目视觉注意力机制姿态估计
《计算机应用研究》 2024 (009)
P.2860-2866 / 7
近地面探测技术重点实验室基金资助项目(6142414220203)。
评论