Cross-modal contrastive distillation has recently been explored for learning effective 3D representations. However, existing methods focus primarily on modality-shared features, neglecting the modality-specific features during the pre-training process, which leads to suboptimal representations. In this paper, we theoretically analyze the limitations of current contrastive methods for 3D representation learning and propose a new framework, namely CMCR (Cross-Modal Comprehensive Representation Learning), to address these shortcomings. Our approach improves upon traditional methods by better integrating both modality-shared and modality-specific features. Specifically, we introduce masked image modeling and occupancy estimation tasks to guide the network in learning more comprehensive modality-specific features. Furthermore, we propose a novel multi-modal unified codebook that learns an embedding space shared across different modalities. Besides, we introduce geometry-enhanced masked image modeling to further boost 3D representation learning. Extensive experiments demonstrate that our method mitigates the challenges faced by traditional approaches and consistently outperforms existing image-to-LiDAR contrastive distillation methods in downstream tasks. Code will be available at https://github.com/Eaphan/CMCR.


翻译:跨模态对比蒸馏方法近期被探索用于学习有效的三维表示。然而,现有方法主要关注模态共享特征,在预训练过程中忽视了模态特定特征,这导致了次优的表示学习。本文从理论上分析了当前对比方法在三维表示学习中的局限性,并提出了一种新框架——CMCR(跨模态全面表示学习)以解决这些不足。我们的方法通过更好地整合模态共享特征和模态特定特征,改进了传统方法。具体而言,我们引入了掩码图像建模和占用估计任务,以指导网络学习更全面的模态特定特征。此外,我们提出了一种新颖的多模态统一码本,用于学习跨不同模态的共享嵌入空间。同时,我们引入了几何增强的掩码图像建模,以进一步提升三维表示学习。大量实验表明,我们的方法缓解了传统方法面临的挑战,并在下游任务中持续优于现有的图像到激光雷达对比蒸馏方法。代码将在 https://github.com/Eaphan/CMCR 公开。

0
下载
关闭预览

相关内容

【ICML2022】几何多模态对比表示学习
专知会员服务
45+阅读 · 2022年7月17日
专知会员服务
26+阅读 · 2021年9月9日
专知会员服务
44+阅读 · 2021年7月1日
【ICLR2021】自监督蒸馏学习视觉表示
专知会员服务
34+阅读 · 2021年4月14日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
91+阅读 · 2020年7月4日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
深度多模态表示学习综述论文,22页pdf
专知
33+阅读 · 2020年6月21日
模型压缩 | 知识蒸馏经典解读
AINLP
11+阅读 · 2020年5月31日
对比学习(Contrastive Learning)相关进展梳理
PaperWeekly
11+阅读 · 2020年5月12日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员