Robot Foundation Models (RFMs) represent a promising approach to developing general-purpose home robots. Given the broad capabilities of RFMs, users will inevitably ask an RFM-based robot to perform tasks that the RFM was not trained or evaluated on. In these cases, it is crucial that users understand the risks associated with attempting novel tasks due to the relatively high cost of failure. Furthermore, an informed user who understands an RFM's capabilities will know what situations and tasks the robot can handle. In this paper, we study how non-roboticists interpret performance information from RFM evaluations. These evaluations typically report task success rate (TSR) as the primary performance metric. While TSR is intuitive to experts, it is necessary to validate whether novices also use this information as intended. Toward this end, we conducted a study in which users saw real evaluation data, including TSR, failure case descriptions, and videos from multiple published RFM research projects. The results highlight that non-experts not only use TSR in a manner consistent with expert expectations but also highly value other information types, such as failure cases that are not often reported in RFM evaluations. Furthermore, we find that users want access to both real data from previous evaluations of the RFM and estimates from the robot about how well it will do on a novel task.


翻译:机器人基础模型(RFMs)代表了开发通用家用机器人的一种前景广阔的方法。鉴于RFMs的广泛能力,用户不可避免地会要求基于RFM的机器人执行该模型未经训练或评估的任务。在这些情况下,由于失败的相对成本较高,用户理解尝试新任务所伴随的风险至关重要。此外,了解RFM能力的知情用户将清楚机器人能够处理何种情境和任务。本文研究了非机器人领域专家如何解读RFM评估中的性能信息。这些评估通常以任务成功率(TSR)作为主要性能指标。虽然TSR对专家而言直观易懂,但有必要验证新手是否也能按预期使用该信息。为此,我们开展了一项研究,让用户查看来自多个已发表RFM研究项目的真实评估数据,包括TSR、失败案例描述及视频。结果表明,非专家不仅以符合专家预期的方式使用TSR,而且高度重视其他类型的信息,例如在RFM评估中较少报告的失败案例。此外,我们发现用户既希望获取RFM过往评估的真实数据,也期望机器人能提供其在新任务上表现如何的预估。

0
下载
关闭预览

相关内容

机器人(英语:Robot)包括一切模拟人类行为或思想与模拟其他生物的机械(如机器狗,机器猫等)。狭义上对机器人的定义还有很多分类法及争议,有些电脑程序甚至也被称为机器人。在当代工业中,机器人指能自动运行任务的人造机器设备,用以取代或协助人类工作,一般会是机电设备,由计算机程序或是电子电路控制。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
基础模型驱动的机器人技术:全面综述
专知会员服务
30+阅读 · 2025年7月15日
基础模型视频理解综述
专知会员服务
31+阅读 · 2024年5月8日
大型语言模型与智能机器人集成的综述
专知会员服务
71+阅读 · 2024年4月22日
《基础模型在现实世界机器人应用》综述
专知会员服务
56+阅读 · 2024年2月11日
一文读懂机器学习模型的选择与取舍
DBAplus社群
13+阅读 · 2019年8月25日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
机器学习模型的“可解释性”到底有多重要?
中国科学院自动化研究所
20+阅读 · 2018年3月1日
一文读懂机器学习概率图模型(附示例&学习资源)
国家自然科学基金
14+阅读 · 2016年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
50+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
VIP会员
相关基金
国家自然科学基金
14+阅读 · 2016年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
50+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员