Generating digital humans that move realistically has many applications and is widely studied, but existing methods focus on the major limbs of the body, ignoring the hands and head. Hands have been separately studied but the focus has been on generating realistic static grasps of objects. To synthesize virtual characters that interact with the world, we need to generate full-body motions and realistic hand grasps simultaneously. Both sub-problems are challenging on their own and, together, the state-space of poses is significantly larger, the scales of hand and body motions differ, and the whole-body posture and the hand grasp must agree, satisfy physical constraints, and be plausible. Additionally, the head is involved because the avatar must look at the object to interact with it. For the first time, we address the problem of generating full-body, hand and head motions of an avatar grasping an unknown object. As input, our method, called GOAL, takes a 3D object, its position, and a starting 3D body pose and shape. GOAL outputs a sequence of whole-body poses using two novel networks. First, GNet generates a goal whole-body grasp with a realistic body, head, arm, and hand pose, as well as hand-object contact. Second, MNet generates the motion between the starting and goal pose. This is challenging, as it requires the avatar to walk towards the object with foot-ground contact, orient the head towards it, reach out, and grasp it with a realistic hand pose and hand-object contact. To achieve this the networks exploit a representation that combines SMPL-X body parameters and 3D vertex offsets. We train and evaluate GOAL, both qualitatively and quantitatively, on the GRAB dataset. Results show that GOAL generalizes well to unseen objects, outperforming baselines. GOAL takes a step towards synthesizing realistic full-body object grasping.


翻译:产生数字人,现实地移动,具有许多应用程序,而且正在广泛研究,但现有方法侧重于身体的主要四肢,忽略手和头。手已经分开研究,但重点是产生现实的静态对象。为了合成与世界互动的虚拟字符,我们需要同时产生全体运动和现实的手握。两个子问题本身都具有挑战性,同时,姿势的状态空间也大得多,手和身体运动的规模不同,整个身体的姿势和握手必须同意,满足物理限制,而且看起来可信。此外,头也涉及到,因为阿瓦塔必须看物体来与它互动。我们第一次处理产生与世界互动的全体、手和头动作的问题。作为输入,我们称为GOAL的方法,一个3D对象,一个3D身体的姿势和形状。GOAL 将整个身体的姿势和姿势利用两个新的网络进行计算。首先,GNet的姿势,一个直径,一个直径,一个直方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,一个方向,

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
专知会员服务
43+阅读 · 2021年4月23日
【论文】结构GANs,Structured GANs,
专知会员服务
15+阅读 · 2020年1月16日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
意识是一种数学模式
CreateAMind
3+阅读 · 2019年6月24日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
Using Scene Graph Context to Improve Image Generation
VIP会员
最新内容
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
0+阅读 · 5分钟前
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
1+阅读 · 10分钟前
【NTU博士论文】3D人体动作生成
专知会员服务
2+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
11+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
8+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
3+阅读 · 4月24日
相关VIP内容
专知会员服务
43+阅读 · 2021年4月23日
【论文】结构GANs,Structured GANs,
专知会员服务
15+阅读 · 2020年1月16日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
相关资讯
意识是一种数学模式
CreateAMind
3+阅读 · 2019年6月24日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员