In RGB-D based 6D pose estimation, direct regression approaches can directly predict the 3D rotation and translation from RGB-D data, allowing for quick deployment and efficient inference. However, directly regressing the absolute translation of the pose suffers from diverse object translation distribution between the training and testing datasets, which is usually caused by the diversity of pose distribution of objects in 3D physical space. To this end, we generalize the pin-hole camera projection model to a residual-based projection model and propose the projective residual regression (Res6D) mechanism. Given a reference point for each object in an RGB-D image, Res6D not only reduces the distribution gap and shrinks the regression target to a small range by regressing the residual between the target and the reference point, but also aligns its output residual and its input to follow the projection equation between the 2D plane and 3D space. By plugging Res6D into the latest direct regression methods, we achieve state-of-the-art overall results on datasets including Occlusion LineMOD (ADD(S): 79.7%), LineMOD (ADD(S): 99.5%), and YCB-Video datasets (AUC of ADD(S): 95.4%).


翻译:在基于 RGB-D 的 6D 构成估计中, 直接回归法可以直接预测 RGB- D 数据的 3D 旋转和翻译, 从而可以快速部署和有效推断。 但是, 直接回缩 组合的绝对翻转会因培训数据集和测试数据集之间的不同对象翻译分布而受到影响, 通常是由3D 物理空间中物体的构成分布多样性造成的。 为此, 我们将针孔相机投影模型推广到基于残余的投影模型, 并提议投影剩余回归(Res6D)机制。 鉴于 RGB- D 图像中每个对象的参考点, Res6D 不仅缩小分布差距, 并通过将目标点和参考点之间的剩余部分倒退到小范围, 并将输出剩余部分和输入与 2D 平方 和 3D 空间之间的预测方程式相匹配。 通过将 红洞相机投影成最新的直接回归方法, 我们实现了包括Oclusion IMD (ADD): 79.7%)、 线 95(ADDM (ADD): 995 (ADM5) (ADDDDDDDD): 数据: 99.5 (ADDDDD) 5 (ADDD) 5 (ADDDDDDDD) 和95 (ADD) 5 (ADDDDDD) 5 (ADDD) 5 (ADDDDD) 数据:95 (AD) 95 (AD) 5) 5 (ADDDDDDDDDDDDDD) 5 (ADDDDDDDDDDDDDD) 数据 5 (ADDDDDDDDDDDDD) 5) 5) 5 (ADDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDD) 5) 。

1
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
127+阅读 · 2020年11月20日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年2月1日
VIP会员
相关资讯
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员