Learning effective visual representations for robotic manipulation remains a fundamental challenge due to the complex body dynamics involved in action execution. In this paper, we study how visual representations that carry body-relevant cues can enable efficient policy learning for downstream robotic manipulation tasks. We present $\textbf{I}$nter-token $\textbf{Con}$trast ($\textbf{ICon}$), a contrastive learning method applied to the token-level representations of Vision Transformers (ViTs). ICon enforces a separation in the feature space between agent-specific and environment-specific tokens, resulting in agent-centric visual representations that embed body-specific inductive biases. This framework can be seamlessly integrated into end-to-end policy learning by incorporating the contrastive loss as an auxiliary objective. Our experiments show that ICon not only improves policy performance across various manipulation tasks but also facilitates policy transfer across different robots. The project website: https://inter-token-contrast.github.io/icon/


翻译:学习有效的视觉表征以用于机器人操作仍然是一个基础性挑战,这源于动作执行中涉及的复杂身体动力学。本文研究了携带身体相关线索的视觉表征如何能够为下游机器人操作任务实现高效策略学习。我们提出了$\textbf{I}$nter-token $\textbf{Con}$trast ($\textbf{ICon}$),一种应用于Vision Transformers (ViTs) 令牌级表征的对比学习方法。ICon在特征空间中强制分离智能体特定令牌与环境特定令牌,从而产生嵌入身体特定归纳偏置的以智能体为中心的视觉表征。该框架可通过将对比损失作为辅助目标,无缝集成到端到端策略学习中。实验表明,ICon不仅提升了多种操作任务的策略性能,还促进了跨不同机器人的策略迁移。项目网站:https://inter-token-contrast.github.io/icon/

0
下载
关闭预览

相关内容

深度强化学习与模仿学习导论
专知会员服务
25+阅读 · 2025年12月10日
面向具身操作的视觉-语言-动作模型综述
专知会员服务
28+阅读 · 2025年8月23日
面向视觉的强化学习综述
专知会员服务
21+阅读 · 2025年8月12日
【博士论文】学习视觉-语言表示以实现多模态理解
专知会员服务
28+阅读 · 2025年2月8日
【NTU博士论文】面向视觉能力神经模型的资源高效学习
专知会员服务
23+阅读 · 2025年1月2日
深度学习在体育应用中的研究概览:感知、理解和决策
专知会员服务
39+阅读 · 2023年7月17日
基于深度神经网络的高效视觉识别研究进展与新方向
专知会员服务
40+阅读 · 2021年8月31日
多模态视觉语言表征学习研究综述
专知会员服务
195+阅读 · 2020年12月3日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
探索(Exploration)还是利用(Exploitation)?强化学习如何tradeoff?
深度强化学习实验室
13+阅读 · 2020年8月23日
基于人体骨架的行为识别【附PPT与视频资料】
人工智能前沿讲习班
31+阅读 · 2019年1月15日
【泡泡图灵智库】密集相关的自监督视觉描述学习(RAL)
泡泡机器人SLAM
11+阅读 · 2018年10月6日
一文看懂如何将深度学习应用于视频动作识别
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
VIP会员
相关VIP内容
深度强化学习与模仿学习导论
专知会员服务
25+阅读 · 2025年12月10日
面向具身操作的视觉-语言-动作模型综述
专知会员服务
28+阅读 · 2025年8月23日
面向视觉的强化学习综述
专知会员服务
21+阅读 · 2025年8月12日
【博士论文】学习视觉-语言表示以实现多模态理解
专知会员服务
28+阅读 · 2025年2月8日
【NTU博士论文】面向视觉能力神经模型的资源高效学习
专知会员服务
23+阅读 · 2025年1月2日
深度学习在体育应用中的研究概览:感知、理解和决策
专知会员服务
39+阅读 · 2023年7月17日
基于深度神经网络的高效视觉识别研究进展与新方向
专知会员服务
40+阅读 · 2021年8月31日
多模态视觉语言表征学习研究综述
专知会员服务
195+阅读 · 2020年12月3日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员