Manipulation in cluttered environments is challenging due to spatial dependencies among objects, where an improper manipulation order can cause collisions or blocked access. Existing approaches often overlook these spatial relationships, limiting their flexibility and scalability. To address these limitations, we propose OrderMind, a unified spatial-aware manipulation ordering framework that directly learns object manipulation priorities based on spatial context. Our architecture integrates a spatial context encoder with a temporal priority structuring module. We construct a spatial graph using k-Nearest Neighbors to aggregate geometric information from the local layout and encode both object-object and object-manipulator interactions to support accurate manipulation ordering in real-time. To generate physically and semantically plausible supervision signals, we introduce a spatial prior labeling method that guides a vision-language model to produce reasonable manipulation orders for distillation. We evaluate OrderMind on our Manipulation Ordering Benchmark, comprising 163,222 samples of varying difficulty. Extensive experiments in both simulation and real-world environments demonstrate that our method significantly outperforms prior approaches in effectiveness and efficiency, enabling robust manipulation in cluttered scenes.


翻译:在杂乱环境中进行操作具有挑战性,主要源于物体间的空间依赖关系,不当的操作顺序可能导致碰撞或通道阻塞。现有方法往往忽视这些空间关系,限制了其灵活性和可扩展性。为应对这些局限性,我们提出了OrderMind,一个统一的空间感知操作排序框架,能够基于空间上下文直接学习物体的操作优先级。我们的架构将空间上下文编码器与时间优先级结构化模块相结合。我们使用k近邻算法构建空间图,以聚合局部布局的几何信息,并编码物体-物体及物体-操作器之间的交互,从而支持实时准确的操作排序。为生成物理和语义上合理的监督信号,我们引入了一种空间先验标注方法,引导视觉语言模型产生合理的操作顺序用于知识蒸馏。我们在包含163,222个不同难度样本的操作排序基准测试上评估OrderMind。在仿真和真实环境中的大量实验表明,我们的方法在有效性和效率上显著优于现有方法,能够在杂乱场景中实现鲁棒的操作。

0
下载
关闭预览

相关内容

【NeurIPS2023】CQM: 与量化世界模型的课程强化学习
专知会员服务
25+阅读 · 2023年10月29日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
22+阅读 · 2021年4月20日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月6日
Arxiv
0+阅读 · 1月2日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员