Machine unlearning in text-to-image diffusion models aims to remove targeted concepts while preserving overall utility. Prior diffusion unlearning methods typically rely on supervised weight edits or global penalties; reinforcement-learning (RL) approaches, while flexible, often optimize sparse end-of-trajectory rewards, yielding high-variance updates and weak credit assignment. We present a general RL framework for diffusion unlearning that treats denoising as a sequential decision process and introduces a timestep-aware critic with noisy-step rewards. Concretely, we train a CLIP-based reward predictor on noisy latents and use its per-step signal to compute advantage estimates for policy-gradient updates of the reverse diffusion kernel. Our algorithm is simple to implement, supports off-policy reuse, and plugs into standard text-to-image backbones. Across multiple concepts, the method achieves better or comparable forgetting to strong baselines while maintaining image quality and benign prompt fidelity; ablations show that (i) per-step critics and (ii) noisy-conditioned rewards are key to stability and effectiveness. We release code and evaluation scripts to facilitate reproducibility and future research on RL-based diffusion unlearning.


翻译:文本到图像扩散模型的机器遗忘旨在移除特定概念的同时保持模型整体效用。现有扩散遗忘方法通常依赖于监督式权重编辑或全局惩罚;强化学习方法虽具灵活性,但往往优化稀疏的轨迹末端奖励,导致高方差更新与弱信用分配。本文提出一种通用的扩散遗忘强化学习框架,将去噪过程视为序列决策问题,并引入具有噪声步奖励的时序感知评论家。具体而言,我们在噪声潜变量上训练基于CLIP的奖励预测器,利用其逐步信号计算优势估计值,以执行反向扩散核的策略梯度更新。该算法实现简单,支持离策略数据复用,并可嵌入标准文本到图像主干模型。在多种概念上的实验表明,本方法在保持图像质量与良性提示保真度的同时,实现了优于或可比拟强基线的遗忘效果;消融研究证实:(1)逐步评论家与(2)噪声条件奖励是算法稳定性与有效性的关键。我们公开了代码与评估脚本,以促进基于强化学习的扩散遗忘研究的可复现性与未来发展。

0
下载
关闭预览

相关内容

【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员