We introduce Talk2Move, a reinforcement learning (RL) based diffusion framework for text-instructed spatial transformation of objects within scenes. Spatially manipulating objects in a scene through natural language poses a challenge for multimodal generation systems. While existing text-based manipulation methods can adjust appearance or style, they struggle to perform object-level geometric transformations-such as translating, rotating, or resizing objects-due to scarce paired supervision and pixel-level optimization limits. Talk2Move employs Group Relative Policy Optimization (GRPO) to explore geometric actions through diverse rollouts generated from input images and lightweight textual variations, removing the need for costly paired data. A spatial reward guided model aligns geometric transformations with linguistic description, while off-policy step evaluation and active step sampling improve learning efficiency by focusing on informative transformation stages. Furthermore, we design object-centric spatial rewards that evaluate displacement, rotation, and scaling behaviors directly, enabling interpretable and coherent transformations. Experiments on curated benchmarks demonstrate that Talk2Move achieves precise, consistent, and semantically faithful object transformations, outperforming existing text-guided editing approaches in both spatial accuracy and scene coherence.


翻译:我们提出了Talk2Move,一个基于强化学习(RL)的扩散框架,用于实现场景内物体的文本指令空间变换。通过自然语言对场景中的物体进行空间操控,对多模态生成系统而言是一个挑战。现有的基于文本的操控方法虽然能够调整外观或风格,但由于缺乏成对的监督数据和像素级优化的限制,难以执行物体级别的几何变换——例如平移、旋转或调整物体大小。Talk2Move采用组相对策略优化(GRPO),通过从输入图像和轻量级文本变体生成多样化的轨迹来探索几何动作,从而无需昂贵的成对数据。空间奖励引导模型将几何变换与语言描述对齐,同时离策略步评估和主动步采样通过关注信息丰富的变换阶段来提高学习效率。此外,我们设计了以物体为中心的空间奖励,直接评估位移、旋转和缩放行为,从而实现可解释且连贯的变换。在精心构建的基准测试上的实验表明,Talk2Move能够实现精确、一致且语义保真的物体变换,在空间准确性和场景连贯性方面均优于现有的文本引导编辑方法。

0
下载
关闭预览

相关内容

大语言模型的强化学习技术综述
专知会员服务
40+阅读 · 2025年7月8日
「基于通信的多智能体强化学习」 进展综述
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
【论文笔记】基于强化学习的人机对话
专知
20+阅读 · 2019年9月21日
强化学习与文本生成
微信AI
41+阅读 · 2019年4月4日
TensorFlow 2.0深度强化学习指南
云栖社区
18+阅读 · 2019年2月1日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
VIP会员
相关VIP内容
大语言模型的强化学习技术综述
专知会员服务
40+阅读 · 2025年7月8日
相关资讯
「基于通信的多智能体强化学习」 进展综述
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
【论文笔记】基于强化学习的人机对话
专知
20+阅读 · 2019年9月21日
强化学习与文本生成
微信AI
41+阅读 · 2019年4月4日
TensorFlow 2.0深度强化学习指南
云栖社区
18+阅读 · 2019年2月1日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员