以深度学习为代表的人工智能取得突破性进展,然而,海量的参数与复杂的处理机制使得人类很难追溯与理解推理过程,导致这类端到端的黑箱学习方法不可解释,造成“知其然,不知其所以然”。由此引发人们对算法可信性、公平性产生质疑,甚至造成伦理、法律等问题,影响了黑箱人工智能方法在无人驾驶、疾病诊断等高风险决策工程中的大规模应用。可解释性是打开黑箱人工智能方法,构建新一代人工智能理论的关键之一。可解释智能学习方法既给出结果,同时也提供计算推理过程所形成的证据链。目前,可解释智能学习还面临一系列难题,例如:可解释的机器/深度学习模型、符号规则与深度学习的融合方法、可解释性评测指标与方法等。
《计算机研究与发展》拟于2021年12月出版应用技术专题——可解释智能学习方法及其应用。本专题希望围绕上述难题讨论可解释人工智能的关键技术与发展趋势,报导相关技术在行业中的实践案例,交流思想和成果,进而促进相关技术的研究与发展。
一、征文范围
包括(但不限于)下列主题:
1.可解释的机器/深度学习模型;
2.决策过程及预测结果的解释
3.计算及推理过程的可视化
4. 符号规则与深度学习的融合;
5.可解释的智能问答与视觉推理;
6.可解释性的评测指标与方法;
7.可解释智能方法在医疗、政务、税务、教育等领域的应用。
二、征文要求
1.论文应属于作者的科研成果,数据真实可靠,具有重要的学术价值或推广应用价值,未在国内外公开发行的刊物或会议上发表过,不存在一稿多投问题。作者在投稿时,需向编辑部提交版权转让协议。
2.论文一律用word格式排版,格式体例参考近期出版的《计算机研究与发展》文章的要求(http://crad.ict.ac.cn)。
3.论文请通过期刊网站(http://crad.ict.ac.cn)进行投稿,投稿时请提供作者联系方式,并在作者留言中注明“可解释智能学习2021专题”(否则按自由来稿处理)。
三、重要日期
征文截止日期:2021年10月10日
录用通知日期:2021年11月1日 11月11日
作者修改稿提交日期:2021年11月15日
出版日期:2021年12月
四、特邀编委
郑庆华 教授 西安交通大学 qhzheng@mail.xjtu.edu.cn
五、联系方式
编辑部: crad@ict.ac.cn 010-62620696, 010-62600350
通信地址: 北京2704信箱《计算机研究与发展》编辑部 邮编100190