可解释人工智能研究综述OACSTPCD
Review of Explainable Artificial Intelligence
随着机器学习和深度学习的发展,人工智能技术已经逐渐应用在各个领域.然而采用人工智能的最大缺陷之一就是它无法解释预测的依据.模型的黑盒性质使得在医疗、金融和自动驾驶等关键任务应用场景中人类还无法真正信任模型,从而限制了这些领域中人工智能的落地应用.推动可解释人工智能(explainable artificial intelli-gence,XAI)的发展成为实现关键任务应用落地的重要问题.目前,国内外相关领域仍缺少有关可解释人工智能的研究综述,也缺…查看全部>>
赵延玉;赵晓永;王磊;王宁宁
北京信息科技大学 信息系统研究所,北京 100129北京信息科技大学 信息系统研究所,北京 100129||北京信息科技大学 北京材料基因工程高精尖创新中心,北京 100129北京信息科技大学 信息系统研究所,北京 100129北京信息科技大学 信息系统研究所,北京 100129
计算机与自动化
可解释性人工智能机器学习深度学习评估
explainabilityartificial intelligencemachine learningdeep learningevaluation
《计算机工程与应用》 2023 (14)
1-14,14
国家重点研发计划(2019YFB1705402).
评论