Neural implicit mapping has emerged as a powerful paradigm for robotic navigation and scene understanding. However, real-world robotic deployment requires continual adaptation to changing environments under strict memory and computation constraints, which existing mapping systems fail to support. Most prior methods rely on replaying historical observations to preserve consistency and assume static scenes. As a result, they cannot adapt to continual learning in dynamic robotic settings. To address these challenges, we propose TACO (TemporAl Consensus Optimization), a replay-free framework for continual neural mapping. We reformulate mapping as a temporal consensus optimization problem, where we treat past model snapshots as temporal neighbors. Intuitively, our approach resembles a model consulting its own past knowledge. We update the current map by enforcing weighted consensus with historical representations. Our method allows reliable past geometry to constrain optimization while permitting unreliable or outdated regions to be revised in response to new observations. TACO achieves a balance between memory efficiency and adaptability without storing or replaying previous data. Through extensive simulated and real-world experiments, we show that TACO robustly adapts to scene changes, and consistently outperforms other continual learning baselines.


翻译:神经隐式建图已成为机器人导航与场景理解的重要范式。然而,实际机器人部署需要在严格的内存与计算限制下持续适应动态变化的环境,现有建图系统均无法满足这一需求。多数现有方法依赖回放历史观测以保持一致性,并假设场景静态不变,因而无法适应动态机器人场景中的持续学习。为应对这些挑战,我们提出TACO(时间一致性优化),一种无需回放的持续神经建图框架。我们将建图重新定义为时间一致性优化问题,将历史模型快照视为时间邻域。直观而言,该方法类似于模型咨询其自身的历史知识。我们通过强制当前地图与历史表征达成加权一致性来实现地图更新。该方法允许可靠的过往几何结构约束优化过程,同时容许根据新观测修正不可靠或过时的区域。TACO在不存储或回放先前数据的前提下,实现了内存效率与适应性的平衡。通过大量仿真与真实世界实验,我们证明TACO能够稳健适应场景变化,并持续优于其他持续学习基线方法。

0
下载
关闭预览

相关内容

西电TKDE 2021 | 可解释高效的异质图卷积神经网络
专知会员服务
27+阅读 · 2021年11月14日
IROS2020|机器人自主探索与建图算法,代码已开源!
中国图象图形学报
34+阅读 · 2020年9月8日
精选论文 | 图神经网络时间节点【附打包下载】
人工智能前沿讲习班
17+阅读 · 2019年5月6日
深度学习时代的图模型,清华发文综述图网络
GAN生成式对抗网络
13+阅读 · 2018年12月23日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员