What is the AGI in Offensive Security? One can break it down into two questions : (1) any offensive security tasks could be reduced into symbolic language manipulation (language representation + reasoning), (2) powerful language model (LLM) are enough to "deal with" any symbolic language manipulation. This paper can formally model a target system as a state machine and a hacker as an interactive symbolic agent. And it shows that every interaction in an offensive engagement can be encoded as a finite string. This paper provides definitions, short lemmas, and open discussion.


翻译:什么是攻击性安全中的AGI?可以将其分解为两个问题:(1) 任何攻击性安全任务能否被简化为符号语言操作(语言表示 + 推理),(2) 强大的语言模型(LLM)是否足以“处理”任何符号语言操作。本文能够将目标系统形式化建模为状态机,将黑客建模为交互式符号代理,并证明攻击性对抗中的每次交互均可编码为有限字符串。本文提供了相关定义、简短引理及开放性讨论。

0
下载
关闭预览

相关内容

生成式人工智能大型语言模型的安全性:概述
专知会员服务
35+阅读 · 2024年7月30日
可解释人工智能中的对抗攻击和防御
专知会员服务
43+阅读 · 2023年6月20日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2月12日
VIP会员
相关VIP内容
生成式人工智能大型语言模型的安全性:概述
专知会员服务
35+阅读 · 2024年7月30日
可解释人工智能中的对抗攻击和防御
专知会员服务
43+阅读 · 2023年6月20日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员