In emerging multi-robot societies, heterogeneous agents must continually extract and integrate local knowledge from one another through communication, even when their internal models are completely opaque. Existing approaches to continual or collaborative learning for visual place recognition (VPR) largely assume white-box access to model parameters or shared training datasets, which is unrealistic when robots encounter unknown peers in the wild. This paper introduces \emph{Continual Communicative Learning (CCL)}, a data-free multi-robot framework in which a traveler robot (student) continually improves its VPR capability by communicating with black-box teacher models via a constrained query--response channel. We repurpose Membership Inference Attacks (MIA), originally developed as privacy attacks on machine learning models, as a constructive communication primitive to reconstruct pseudo-training sets from black-box VPR teachers without accessing their parameters or raw data. To overcome the intrinsic communication bottleneck caused by the low sampling efficiency of black-box MIA, we propose a prior-based query strategy that leverages the student's own VPR prior to focus queries on informative regions of the embedding space, thereby reducing the knowledge transfer (KT) cost. Experimental results on a standard multi-session VPR benchmark demonstrate that the proposed CCL framework yields substantial performance gains for low-performing robots under modest communication budgets, highlighting CCL as a promising building block for scalable and fault-tolerant multi-robot systems.


翻译:在新兴的多机器人社会中,异构智能体必须通过通信持续地从彼此提取并整合局部知识,即使其内部模型完全不透明。现有针对视觉位置识别(VPR)的持续学习或协作学习方法大多假设可以白盒访问模型参数或共享训练数据集,这在机器人于开放环境中遇到未知同伴时是不现实的。本文提出**持续通信学习(CCL)**,一种无数据多机器人框架,其中旅行者机器人(学生)通过受限的查询-响应通道与黑盒教师模型通信,持续提升其VPR能力。我们将原本作为机器学习模型隐私攻击手段的成员推理攻击(MIA)重新定位为一种建设性通信原语,用于从黑盒VPR教师中重建伪训练集,而无需访问其参数或原始数据。为克服黑盒MIA采样效率低所固有的通信瓶颈,我们提出一种基于先验的查询策略,该策略利用学生自身的VPR先验,将查询聚焦于嵌入空间的信息丰富区域,从而降低知识转移(KT)成本。在标准多会话VPR基准上的实验结果表明,所提出的CCL框架在适度通信预算下为性能较低的机器人带来了显著的性能提升,凸显了CCL作为可扩展且容错的多机器人系统的一个有前景的基础构建模块。

0
下载
关闭预览

相关内容

在科学,计算和工程学中,黑盒是一种设备,系统或对象,可以根据其输入和输出(或传输特性)对其进行查看,而无需对其内部工作有任何了解。 它的实现是“不透明的”(黑色)。 几乎任何事物都可以被称为黑盒:晶体管,引擎,算法,人脑,机构或政府。为了使用典型的“黑匣子方法”来分析建模为开放系统的事物,仅考虑刺激/响应的行为,以推断(未知)盒子。 该黑匣子系统的通常表示形式是在该方框中居中的数据流程图。黑盒的对立面是一个内部组件或逻辑可用于检查的系统,通常将其称为白盒(有时也称为“透明盒”或“玻璃盒”)。
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员