基于知识蒸馏的脉冲神经网络强化学习方法OACSTPCD
Reinforcement Learning of Spiking Neural Network Based on Knowledge Distillation
提出一种基于知识蒸馏的脉冲神经网络(SNN)强化学习方法SDN.该方法利用STBP梯度下降法,实现深度神经网络(DNN)向SNN强化学习任务的知识蒸馏.实验结果表明,与传统的SNN强化学习和DNN强化学习方法相比,该方法可以更快地收敛,能获得比DNN参数量更小的SNN强化学习模型.将SDN部署到神经形态学芯片上,证明其功耗比DNN低,是高性能的SNN强化学习方法,可以加速SNN强化学习的收敛.
张领;曹健;张袁;冯硕;王源
北京大学软件与微电子学院,北京 102600北京大学软件与微电子学院,北京 102600北京大学软件与微电子学院,北京 102600北京大学软件与微电子学院,北京 102600北京大学软件与微电子学院,北京 102600
脉冲神经网络强化学习知识蒸馏
spiking neural network (SNN)reinforcement learningknowledge distillation
《北京大学学报(自然科学版)》 2023 (5)
757-763,7
国家重点研发计划项目(2018YFE0203801)资助
评论