Recent text-to-image diffusion models have demonstrated remarkable generation of realistic facial images conditioned on textual prompts and human identities, enabling creating personalized facial imagery. However, existing prompt-based methods for removing or modifying identity-specific features rely either on the subject being well-represented in the pre-trained model or require model fine-tuning for specific identities. In this work, we analyze the identity generation process and introduce a reverse personalization framework for face anonymization. Our approach leverages conditional diffusion inversion, allowing direct manipulation of images without using text prompts. To generalize beyond subjects in the model's training data, we incorporate an identity-guided conditioning branch. Unlike prior anonymization methods, which lack control over facial attributes, our framework supports attribute-controllable anonymization. We demonstrate that our method achieves a state-of-the-art balance between identity removal, attribute preservation, and image quality. Source code and data are available at https://github.com/hanweikung/reverse-personalization .


翻译:近年来,文本到图像扩散模型在基于文本提示和人类身份生成逼真人脸图像方面展现出卓越能力,实现了个性化面部图像的创建。然而,现有基于提示的方法在移除或修改身份特征时,要么依赖预训练模型已充分表征的主体,要么需要对特定身份进行模型微调。本研究分析了身份特征的生成过程,提出了一种用于人脸匿名化的逆向个性化框架。该方法利用条件扩散反演技术,无需文本提示即可直接操作图像。为泛化至模型训练数据之外的主体,我们引入了身份引导的条件分支。与先前缺乏面部属性控制的匿名化方法不同,本框架支持属性可控的匿名化。实验表明,该方法在身份移除、属性保留和图像质量之间实现了最先进的平衡。源代码与数据详见 https://github.com/hanweikung/reverse-personalization。

0
下载
关闭预览

相关内容

【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
22+阅读 · 2021年4月20日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
【NeurIPS2019】图变换网络:Graph Transformer Network
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月6日
Arxiv
0+阅读 · 1月6日
A Survey of Large Language Models
Arxiv
497+阅读 · 2023年3月31日
VIP会员
相关资讯
相关论文
Arxiv
0+阅读 · 1月6日
Arxiv
0+阅读 · 1月6日
A Survey of Large Language Models
Arxiv
497+阅读 · 2023年3月31日
相关基金
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员