LLM watermarks allow tracing AI-generated texts by inserting a detectable signal into their generated content. Recent works have proposed a wide range of watermarking algorithms, each with distinct designs, usually built using a bottom-up approach. Crucially, there is no general and principled formulation for LLM watermarking. In this work, we show that most existing and widely used watermarking schemes can in fact be derived from a principled constrained optimization problem. Our formulation unifies existing watermarking methods and explicitly reveals the constraints that each method optimizes. In particular, it highlights an understudied quality-diversity-power trade-off. At the same time, our framework also provides a principled approach for designing novel watermarking schemes tailored to specific requirements. For instance, it allows us to directly use perplexity as a proxy for quality, and derive new schemes that are optimal with respect to this constraint. Our experimental evaluation validates our framework: watermarking schemes derived from a given constraint consistently maximize detection power with respect to that constraint.


翻译:大语言模型水印通过在其生成内容中嵌入可检测信号,实现对AI生成文本的溯源。近期研究提出了多种水印算法,这些算法设计各异,通常采用自底向上的构建方式。关键在于,目前尚缺乏针对大语言模型水印的通用且原则性的形式化框架。本研究表明,大多数现有且广泛使用的水印方案实际上可以从一个原则性的约束优化问题中推导得出。我们的形式化框架统一了现有的水印方法,并明确揭示了每种方法所优化的约束条件。特别地,该框架突显了一个尚未被充分研究的质量-多样性-检测效能权衡关系。同时,我们的框架也为针对特定需求设计新型水印方案提供了原则性方法。例如,它允许我们直接使用困惑度作为质量的代理指标,并推导出相对于该约束最优的新方案。实验评估验证了我们的框架:从给定约束推导出的水印方案,始终能针对该约束最大化检测效能。

0
下载
关闭预览

相关内容

【ICML2024】理解大型语言模型在规划中的作用,138页pdf
专知会员服务
49+阅读 · 2024年7月24日
大型语言模型(LLMs),附Slides与视频
专知会员服务
70+阅读 · 2024年6月30日
大模型时代下的文本水印综述
专知会员服务
35+阅读 · 2024年1月26日
RecInterpreter:架起大语言模型与传统推荐模型的桥梁
专知会员服务
54+阅读 · 2023年11月9日
85页pdf最新版!《大语言模型综述》
专知会员服务
174+阅读 · 2023年7月7日
专知会员服务
28+阅读 · 2021年7月16日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
一份超全的NLP语料资源集合及其构建现状
七月在线实验室
33+阅读 · 2019年1月16日
NLP预训练模型大集合!
机器之心
21+阅读 · 2018年12月28日
自然语言处理(NLP)知识结构总结
AI100
51+阅读 · 2018年8月17日
NLP通用模型诞生?一个模型搞定十大自然语言常见任务
人工智能头条
10+阅读 · 2018年6月29日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月19日
VIP会员
相关VIP内容
【ICML2024】理解大型语言模型在规划中的作用,138页pdf
专知会员服务
49+阅读 · 2024年7月24日
大型语言模型(LLMs),附Slides与视频
专知会员服务
70+阅读 · 2024年6月30日
大模型时代下的文本水印综述
专知会员服务
35+阅读 · 2024年1月26日
RecInterpreter:架起大语言模型与传统推荐模型的桥梁
专知会员服务
54+阅读 · 2023年11月9日
85页pdf最新版!《大语言模型综述》
专知会员服务
174+阅读 · 2023年7月7日
专知会员服务
28+阅读 · 2021年7月16日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员