State-of-the-art rigging methods assume a canonical rest pose--an assumption that fails for sequential data (e.g., animal motion capture or AIGC/video-derived mesh sequences) that lack the T-pose. Applied frame-by-frame, these methods are not pose-invariant and produce topological inconsistencies across frames. Thus We propose SPRig, a general fine-tuning framework that enforces cross-frame consistency losses to learn pose-invariant rigs on top of existing models. We validate our approach on rigging using a new permutation-invariant stability protocol. Experiments demonstrate SOTA temporal stability: our method produces coherent rigs from challenging sequences and dramatically reduces the artifacts that plague baseline methods. The code will be released publicly upon acceptance.


翻译:现有最先进的绑定方法通常假设存在标准静止姿态——这一假设对于缺乏T姿态的序列数据(例如动物运动捕捉或AIGC/视频衍生的网格序列)并不成立。逐帧应用这些方法时,它们无法实现姿态无关性,并会导致跨帧的拓扑结构不一致。为此,我们提出SPRig,一个通用的微调框架,通过在现有模型基础上施加跨帧一致性损失来学习姿态无关的绑定。我们采用一种新的置换不变稳定性协议来验证绑定效果。实验表明,本方法在时间稳定性上达到最先进水平:能够从具有挑战性的序列中生成连贯的绑定,并显著减少了困扰基线方法的伪影。代码将在论文录用后公开发布。

0
下载
关闭预览

相关内容

数学上,序列是被排成一列的对象(或事件);这样每个元素不是在其他元素之前,就是在其他元素之后。这里,元素之间的顺序非常重要。
Meta-Transformer:多模态学习的统一框架
专知会员服务
59+阅读 · 2023年7月21日
【WWW2021】自监督学习上下文嵌入的异构网络链接预测
专知会员服务
40+阅读 · 2021年2月10日
谷歌EfficientNet缩放模型,PyTorch实现登热榜
机器学习算法与Python学习
11+阅读 · 2019年6月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关VIP内容
Meta-Transformer:多模态学习的统一框架
专知会员服务
59+阅读 · 2023年7月21日
【WWW2021】自监督学习上下文嵌入的异构网络链接预测
专知会员服务
40+阅读 · 2021年2月10日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员