所有
标题
作者
关键词
摘要
DOI
栏目
地址
基金
中图分类号
高级检索
首页
期刊介绍
期刊简介
数据库收录
编委会
现任编委会
历届编委会
期刊在线
预出版
当期目录
封面和目录
过刊浏览
浏览排行
下载排行
引用排行
高级检索
作者中心
投稿须知
科研诚信
投稿查稿
资料下载
常见问题
审稿中心
专家审稿
主编办公
领域编委办公
编辑办公
自荐审稿
联系我们
期刊征订
联系方式
English
所有
标题
作者
关键词
摘要
DOI
栏目
地址
基金
中图分类号
首页
期刊介绍
期刊简介
数据库收录
编委会
现任编委会
历届编委会
期刊在线
预出版
当期目录
封面和目录
过刊浏览
浏览排行
下载排行
引用排行
高级检索
作者中心
投稿须知
科研诚信
投稿查稿
资料下载
常见问题
审稿中心
专家审稿
主编办公
领域编委办公
编辑办公
自荐审稿
联系我们
期刊征订
联系方式
English
可解释智能学习方法及其应用专题前言
郑庆华
摘要
HTML全文
图
(0)
表
(0)
参考文献
(0)
相关文章
施引文献
资源附件
(0)
摘要
摘要:
以深度学习为代表的人工智能取得突破性进展,然而海量的参数与复杂的处理机制,使得人类很难追溯与理解推理过程,导致这类端到端的黑箱学习方法不可解释,造成“知其然,不知其所以然” .由此引发人们对算法可信性、公平性产生质疑,甚至造成伦理、法律等问题,影响了黑箱人工智能方法在无人驾驶、精准医疗、智能交通等高风险决策工程中的大规模应用.可解释性问题是打开黑箱人工智能方法、构建新一代人工智能理论的关键问题之一.可解释智能学习方法既要给出结果,同时也能提供计算推理过程所形成的证据链.
HTML全文
参考文献
(0)
相关文章
施引文献
资源附件
(0)
/
下载:
全尺寸图片
幻灯片
返回文章
分享
用微信扫码二维码
分享至好友和朋友圈
返回
×
Close
导出文件
文件类别
RIS(可直接使用Endnote编辑器进行编辑)
Bib(可直接使用Latex编辑器进行编辑)
Txt
引用内容
引文——仅导出文章的Citation信息
引文和摘要——导出文章的Citation信息和文章摘要信息
×
Close
引用参考文献格式