Ballroom dancing is a structured yet expressive motion category. Its highly diverse movement and complex interactions between leader and follower dancers make the understanding and synthesis challenging. We demonstrate that the three-point trajectory available from a virtual reality (VR) device can effectively serve as a dancer's motion descriptor, simplifying the modeling and synthesis of interplay between dancers' full-body motions down to sparse trajectories. Thanks to the low dimensionality, we can employ an efficient MLP network to predict the follower's three-point trajectory directly from the leader's three-point input for certain types of ballroom dancing, addressing the challenge of modeling high-dimensional full-body interaction. It also prevents our method from overfitting thanks to its compact yet explicit representation. By leveraging the inherent structure of the movements and carefully planning the autoregressive procedure, we show a deterministic neural network is able to translate three-point trajectories into a virtual embodied avatar, which is typically considered under-constrained and requires generative models for common motions. In addition, we demonstrate this deterministic approach generalizes beyond small, structured datasets like ballroom dancing, and performs robustly on larger, more diverse datasets such as LaFAN. Our method provides a computationally- and data-efficient solution, opening new possibilities for immersive paired dancing applications. Code and pre-trained models for this paper are available at https://peizhuoli.github.io/dancing-points.


翻译:舞厅舞蹈是一种结构严谨且富有表现力的运动类别。其高度多样化的动作以及领舞者与伴舞者之间复杂的交互作用,使得对其理解与合成颇具挑战性。我们证明,虚拟现实(VR)设备可获取的三点轨迹能够有效作为舞者的运动描述符,将舞者全身运动间相互作用的建模与合成简化为稀疏轨迹的处理。得益于其低维度特性,我们能够采用高效的多层感知机(MLP)网络,针对特定类型的舞厅舞蹈,直接从领舞者的三点输入预测伴舞者的三点轨迹,从而解决了高维全身交互建模的难题。该方法凭借其紧凑而明确的表征,亦有效避免了过拟合问题。通过利用运动固有的结构特性并精心设计自回归流程,我们证明确定性神经网络能够将三点轨迹转换为虚拟具身化形象——这一任务在通常运动合成中常被视为约束不足而需依赖生成模型。此外,我们验证了这种确定性方法能够超越舞厅舞蹈等小型结构化数据集,在LaFAN等规模更大、多样性更强的数据集上依然保持稳健性能。本方法提供了计算与数据高效并重的解决方案,为沉浸式配对舞蹈应用开辟了新的可能性。本文相关代码与预训练模型已发布于 https://peizhuoli.github.io/dancing-points。

0
下载
关闭预览

相关内容

3D形状生成:综述
专知会员服务
17+阅读 · 2025年7月7日
三维场景生成:综述
专知会员服务
21+阅读 · 2025年5月9日
3D点云基础模型:综述与展望
专知会员服务
17+阅读 · 2025年1月31日
【博士论文】ࣞ动态三维人体的隐式神经表示方法研究
专知会员服务
18+阅读 · 2024年11月22日
几种典型的虚实融合技术发展研究
专知会员服务
93+阅读 · 2023年12月17日
【牛津大学博士论文】学习理解大规模3D点云,191页pdf
专知会员服务
38+阅读 · 2023年6月22日
你跳宅舞的样子很专业:不,这都是AI合成的结果
SFFAI分享 | 连政:端到端语音合成【附PPT与视频资料】
人工智能前沿讲习班
14+阅读 · 2019年6月16日
【泡泡点云时空】FlowNet3D:学习三维点云中的场景流
泡泡机器人SLAM
41+阅读 · 2019年5月19日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
图卷积网络介绍及进展【附PPT与视频资料】
人工智能前沿讲习班
24+阅读 · 2019年1月3日
ETP:精确时序动作定位
极市平台
13+阅读 · 2018年5月25日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关VIP内容
3D形状生成:综述
专知会员服务
17+阅读 · 2025年7月7日
三维场景生成:综述
专知会员服务
21+阅读 · 2025年5月9日
3D点云基础模型:综述与展望
专知会员服务
17+阅读 · 2025年1月31日
【博士论文】ࣞ动态三维人体的隐式神经表示方法研究
专知会员服务
18+阅读 · 2024年11月22日
几种典型的虚实融合技术发展研究
专知会员服务
93+阅读 · 2023年12月17日
【牛津大学博士论文】学习理解大规模3D点云,191页pdf
专知会员服务
38+阅读 · 2023年6月22日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员