基于改进HopeNet的头部姿态估计方法OA北大核心CSTPCD
针对基于无需先验知识的头部姿态估计算法在复杂背景图像和多尺度图像场景下精度较差的问题,提出了一种基于改进HopeNet的头部姿态估计方法。首先在主干网络结构上增加特征融合结构使得模型能够充分利用网络的深层特征信息与浅层特征信息,提升模型的特征解析力;然后在主干网络的残差结构中增加特征压缩激励模块,使得网络能够自适应学习不同特征层重要程度的权重信息,让模型更加关注目标信息。实验结果表明,相较于HopeNet,本文方法在AFLW2000数据集上精度提升了31.15%,平均误差降到4.20°,同时在复杂背景图像场景下有较好的鲁棒性。
张立国;胡林;
燕山大学测试计量技术与仪器重点实验室,秦皇岛066004
计算机与自动化
头部姿态估计HopeNet特征融合特征压缩激励自适应学习
《高技术通讯》 2024 (005)
P.486-495 / 10
河北省中央引导地方专项(199477141G)资助项目。
评论