Within the context of human-robot interaction (HRI), Theory of Mind (ToM) is intended to serve as a user-friendly backend to the interface of robotic systems, enabling robots to infer and respond to human mental states. When integrated into robots, ToM allows them to adapt their internal models to users' behaviors, enhancing the interpretability and predictability of their actions. Similarly, Explainable Artificial Intelligence (XAI) aims to make AI systems transparent and interpretable, allowing humans to understand and interact with them effectively. Since ToM in HRI serves related purposes, we propose to consider ToM as a form of XAI and evaluate it through the eValuation XAI (VXAI) framework and its seven desiderata. This paper identifies a critical gap in the application of ToM within HRI, as existing methods rarely assess the extent to which explanations correspond to the robot's actual internal reasoning. To address this limitation, we propose to integrate ToM within XAI frameworks. By embedding ToM principles inside XAI, we argue for a shift in perspective, as current XAI research focuses predominantly on the AI system itself and often lacks user-centered explanations. Incorporating ToM would enable a change in focus, prioritizing the user's informational needs and perspective.


翻译:在人机交互(HRI)背景下,心智理论(ToM)旨在作为机器人系统接口的用户友好型后端,使机器人能够推断并响应人类的心理状态。当ToM被集成到机器人中时,它使机器人能够根据用户行为调整其内部模型,从而增强其行为的可解释性与可预测性。类似地,可解释人工智能(XAI)旨在使人工智能系统变得透明且可解释,从而使人类能够有效理解并与之交互。鉴于HRI中的ToM服务于相关目标,我们建议将ToM视为XAI的一种形式,并通过可解释人工智能评估(VXAI)框架及其七项评估准则对其进行评价。本文指出了ToM在HRI应用中的一个关键空白:现有方法很少评估解释与机器人实际内部推理过程的对应程度。为弥补这一局限,我们提出将ToM整合到XAI框架中。通过将ToM原则嵌入XAI,我们主张视角的转变——当前XAI研究主要聚焦于AI系统本身,往往缺乏以用户为中心的解释。融入ToM将促使关注点转向优先考虑用户的信息需求与认知视角。

0
下载
关闭预览

相关内容

可解释人工智能的基础
专知会员服务
32+阅读 · 2025年10月26日
可解释人工智能(XAI):从内在可解释性到大语言模型
专知会员服务
33+阅读 · 2025年1月20日
人工智能(XAI)可解释性的研究进展!
专知会员服务
33+阅读 · 2024年6月12日
推荐!《人与AI协作中的可解释人工智能》320页论文
专知会员服务
137+阅读 · 2023年7月31日
【ICML2022】可解释的心理学理论
专知会员服务
42+阅读 · 2022年5月29日
如何帮助人类理解机器人?哈佛、MIT专家为你解读
专知会员服务
30+阅读 · 2022年3月11日
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
35+阅读 · 2020年9月3日
最新《可解释人工智能》概述,50页ppt
专知
12+阅读 · 2021年3月17日
解读!10篇人机交互领域高引论文合集
THU数据派
11+阅读 · 2019年11月14日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
VIP会员
相关VIP内容
可解释人工智能的基础
专知会员服务
32+阅读 · 2025年10月26日
可解释人工智能(XAI):从内在可解释性到大语言模型
专知会员服务
33+阅读 · 2025年1月20日
人工智能(XAI)可解释性的研究进展!
专知会员服务
33+阅读 · 2024年6月12日
推荐!《人与AI协作中的可解释人工智能》320页论文
专知会员服务
137+阅读 · 2023年7月31日
【ICML2022】可解释的心理学理论
专知会员服务
42+阅读 · 2022年5月29日
如何帮助人类理解机器人?哈佛、MIT专家为你解读
专知会员服务
30+阅读 · 2022年3月11日
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
35+阅读 · 2020年9月3日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员