Despite recent rapid progress in AI safety, current large language models remain vulnerable to adversarial attacks in multi-turn interaction settings, where attackers strategically adapt their prompts across conversation turns and pose a more critical yet realistic challenge. Existing approaches that discover safety vulnerabilities either rely on manual red-teaming with human experts or employ automated methods using pre-defined templates and human-curated attack data, with most focusing on single-turn attacks. However, these methods did not explore the vast space of possible multi-turn attacks, failing to consider novel attack trajectories that emerge from complex dialogue dynamics and strategic conversation planning. This gap is particularly critical given recent findings that LLMs exhibit significantly higher vulnerability to multi-turn attacks compared to single-turn attacks. We propose DialTree, an on-policy reinforcement learning framework integrated with tree search that autonomously discovers diverse multi-turn attack strategies by treating the dialogue as a sequential decision-making problem, enabling systematic exploration without manually curated data. Through extensive experiments, our approach not only achieves more than 44.2% higher ASR across 12 target models compared to previous state-of-the-art approaches, but also effectively uncovers new attack strategies by learning optimal dialogue policies that maximize attack success across multiple turns.


翻译:尽管近期人工智能安全领域进展迅速,当前大型语言模型在多轮交互场景中仍易受对抗性攻击。攻击者通过跨对话轮次策略性地调整提示,构成了更为关键且现实的挑战。现有发现安全漏洞的方法要么依赖专家人工红队测试,要么采用基于预定义模板和人工标注攻击数据的自动化方法,且大多聚焦于单轮攻击。然而,这些方法未能探索多轮攻击的广阔可能性空间,忽略了复杂对话动态和策略性对话规划所产生的新型攻击轨迹。鉴于最新研究发现大型语言模型对多轮攻击的脆弱性显著高于单轮攻击,这一研究空白尤为关键。我们提出DialTree——一种与树搜索结合的在线策略强化学习框架,通过将对话视为序列决策问题,在无需人工标注数据的情况下实现系统性探索,从而自主发现多样化的多轮攻击策略。大量实验表明,相较于现有最优方法,我们的方法不仅在12个目标模型上实现了超过44.2%的攻击成功率提升,还能通过学习最大化多轮攻击成功概率的最优对话策略,有效揭示新型攻击模式。

0
下载
关闭预览

相关内容

《用于建模系统攻击路径的强化学习环境》
专知会员服务
21+阅读 · 3月5日
运用小型语言模型解锁战术边缘人工智能优势
专知会员服务
30+阅读 · 2025年9月7日
探索大型语言模型在网络安全中的作用:一项系统综述
专知会员服务
21+阅读 · 2025年4月27日
《基于深度强化学习的战场策略》
专知会员服务
37+阅读 · 2025年1月13日
【新书】利用生成式人工智能进行网络防御策略
专知会员服务
31+阅读 · 2024年10月18日
面向深度强化学习的对抗攻防综述
专知会员服务
66+阅读 · 2023年8月2日
专知会员服务
99+阅读 · 2020年12月8日
【论文笔记】基于强化学习的人机对话
专知
20+阅读 · 2019年9月21日
SemanticAdv:基于语义属性的对抗样本生成方法
机器之心
14+阅读 · 2019年7月12日
干货|深度强化学习在面向任务的对话管理中的应用
全球人工智能
13+阅读 · 2017年9月14日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
335+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
VIP会员
最新内容
《新兴技术武器化及其对全球风险的影响》
专知会员服务
8+阅读 · 4月29日
《帕兰泰尔平台介绍:信息分析平台》
专知会员服务
20+阅读 · 4月29日
智能体化世界建模:基础、能力、规律及展望
专知会员服务
11+阅读 · 4月28日
相关VIP内容
《用于建模系统攻击路径的强化学习环境》
专知会员服务
21+阅读 · 3月5日
运用小型语言模型解锁战术边缘人工智能优势
专知会员服务
30+阅读 · 2025年9月7日
探索大型语言模型在网络安全中的作用:一项系统综述
专知会员服务
21+阅读 · 2025年4月27日
《基于深度强化学习的战场策略》
专知会员服务
37+阅读 · 2025年1月13日
【新书】利用生成式人工智能进行网络防御策略
专知会员服务
31+阅读 · 2024年10月18日
面向深度强化学习的对抗攻防综述
专知会员服务
66+阅读 · 2023年8月2日
专知会员服务
99+阅读 · 2020年12月8日
相关基金
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
335+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员