Large Language Models (LLMs) can generate highly persuasive text, raising concerns about their misuse for propaganda, manipulation, and other harmful purposes. This leads us to our central question: Is LLM-generated persuasion more difficult to automatically detect than human-written persuasion? To address this, we categorize controllable generation approaches for producing persuasive content with LLMs and introduce Persuaficial, a high-quality multilingual benchmark covering six languages: English, German, Polish, Italian, French and Russian. Using this benchmark, we conduct extensive empirical evaluations comparing human-authored and LLM-generated persuasive texts. We find that although overtly persuasive LLM-generated texts can be easier to detect than human-written ones, subtle LLM-generated persuasion consistently degrades automatic detection performance. Beyond detection performance, we provide the first comprehensive linguistic analysis contrasting human and LLM-generated persuasive texts, offering insights that may guide the development of more interpretable and robust detection tools.


翻译:大型语言模型(LLMs)能够生成极具说服力的文本,这引发了对其可能被滥用于宣传、操纵及其他有害目的的担忧。这引出了我们的核心问题:与人类撰写的劝说文本相比,LLM生成的劝说文本是否更难被自动检测?为此,我们对利用LLMs生成劝说内容的可控生成方法进行了分类,并提出了Persuaficial——一个高质量的多语言基准测试集,涵盖英语、德语、波兰语、意大利语、法语和俄语六种语言。利用该基准,我们进行了广泛的实证评估,比较了人类撰写和LLM生成的劝说文本。研究发现,虽然显性的LLM生成劝说文本可能比人类撰写的更容易检测,但隐性的LLM生成劝说文本会持续降低自动检测的性能。除了检测性能,我们首次提供了对比人类与LLM生成劝说文本的全面语言学分析,这些发现可能为开发更具可解释性和鲁棒性的检测工具提供指导。

0
下载
关闭预览

相关内容

如何检测ChatGPT?TUM最新《检测ChatGPT生成文本现状》综述
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员