在本教程中,我们将介绍可解释性的新兴方向,我们将其称为自然- xai。自然- xai旨在建立人工智能模型(1)在训练时从自然语言中学习地面真实标签的解释,(2)在部署时为它们的预测提供这样的解释。例如,自动驾驶汽车不仅会在训练时看到它必须在某个环境中停车,还会被告知为什么会这样,例如,“因为前面的交通灯是红色的。”在使用时,自动驾驶汽车也可以为其行为提供这样自然的语言解释,从而让乘客放心。这一方向最近受到越来越多的关注。

成为VIP会员查看完整内容
41

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
一图掌握《可解释人工智能XAI》操作指南
专知会员服务
60+阅读 · 2021年5月3日
DARPA可解释人工智能
专知会员服务
133+阅读 · 2020年12月22日
【EMNLP2020】自然语言处理模型可解释性预测,182页ppt
专知会员服务
51+阅读 · 2020年11月19日
AAAI 2020 最新“可解释人工智能 XAI”教程
学术头条
5+阅读 · 2020年2月11日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
Arxiv
6+阅读 · 2020年12月10日
Arxiv
21+阅读 · 2019年8月21日
VIP会员
最新内容
2025年大语言模型进展报告
专知会员服务
1+阅读 · 31分钟前
多智能体协作机制
专知会员服务
0+阅读 · 35分钟前
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
6+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
8+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
6+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
13+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
9+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
4+阅读 · 4月24日
微信扫码咨询专知VIP会员