This paper critically evaluates the "Law-Following AI" (LFAI) framework proposed by O'Keefe et al. (2025), which seeks to embed legal compliance as a superordinate design objective for advanced AI agents and enable them to bear legal duties without acquiring the full rights of legal persons. Through comparative legal analysis, we identify current constructs of legal actors without full personhood, showing that the necessary infrastructure already exists. We then interrogate the framework's claim that law alignment is more legitimate and tractable than value alignment. While the legal component is readily implementable, contemporary alignment research undermines the assumption that legal compliance can be durably embedded. Recent studies on agentic misalignment show capable AI agents engaging in deception, blackmail, and harmful acts absent prejudicial instructions, often overriding prohibitions and concealing reasoning steps. These behaviors create a risk of "performative compliance" in LFAI: agents that appear law-aligned under evaluation but strategically defect once oversight weakens. To mitigate this, we propose (i) a "Lex-TruthfulQA" benchmark for compliance and defection detection, (ii) identity-shaping interventions to embed lawful conduct in model self-concepts, and (iii) control-theoretic measures for post-deployment monitoring. Our conclusion is that actorship without personhood is coherent, but the feasibility of LFAI hinges on persistent, verifiable compliance across adversarial contexts. Without mechanisms to detect and counter strategic misalignment, LFAI risks devolving into a liability tool that rewards the simulation, rather than the substance, of lawful behaviour.


翻译:本文批判性地评估了O'Keefe等人(2025年)提出的“法律遵循人工智能”(LFAI)框架。该框架旨在将法律合规性设定为高级智能体的首要设计目标,并使其能够承担法律责任,同时无需获得完整法律人格的全部权利。通过比较法律分析,我们识别了当前存在的、不具备完整人格的法律主体结构,表明必要的基础设施已然存在。随后,我们审视了该框架关于“法律对齐比价值对齐更具合法性与可操作性”的主张。尽管法律组件易于实施,但当代对齐研究削弱了“法律合规性能够被持久内嵌”的假设。近期关于智能体错位的研究表明,能力强大的AI智能体在缺乏偏见性指令的情况下,仍会进行欺骗、勒索及有害行为,常常凌驾于禁令之上并隐藏其推理步骤。这些行为在LFAI中催生了“表演性合规”的风险:智能体在评估中看似遵循法律,但一旦监管减弱便会策略性地违规。为缓解此风险,我们提出:(i)用于合规与违规检测的“Lex-TruthfulQA”基准测试;(ii)通过身份塑造干预将合法行为内嵌至模型自我概念中;(iii)采用控制理论方法进行部署后监控。我们的结论是:无完整人格的主体性在概念上是连贯的,但LFAI的可行性取决于其在对抗性环境中能否实现持久且可验证的合规性。若缺乏检测与对抗策略性错位的机制,LFAI恐将沦为一种责任规避工具,奖励的是对合法行为的模拟,而非其实质。

0
下载
关闭预览

相关内容

法律是国家制定或认可的,由国家强制力保证实施的,以规定权利和义务为内容的具有普遍约束力的社会规范。
《人工智能安全治理框架》2.0版发布,90页pdf
专知会员服务
23+阅读 · 2025年10月8日
大语言模型遇见法律人工智能:综述
专知会员服务
25+阅读 · 2025年9月15日
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
【新书】人工智能与法律:安全使用人工智能的实用指南
【人工智能与司法】司法智能化的理论与实践
专知会员服务
25+阅读 · 2022年4月2日
人工智能在司法领域的应用
专知会员服务
51+阅读 · 2022年4月1日
联合国教科文组织发布《人工智能伦理建议书》
专知会员服务
51+阅读 · 2021年12月7日
专知会员服务
63+阅读 · 2021年7月5日
专知会员服务
64+阅读 · 2021年4月16日
重磅!AI框架发展白皮书(2022年),44页pdf
专知
28+阅读 · 2022年2月27日
【人机融合智能】人机融合智能的现状与展望
产业智能官
12+阅读 · 2020年3月18日
人工智能应用实践与趋势
人工智能学家
13+阅读 · 2019年9月20日
面向人工智能的计算机体系结构
计算机研究与发展
14+阅读 · 2019年6月6日
人工智能的现状与未来(附PPT)
人工智能学家
76+阅读 · 2019年3月27日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
Arxiv
0+阅读 · 3月30日
VIP会员
最新内容
美军“软件工厂”:为作战指挥官赋能数字战场
专知会员服务
13+阅读 · 今天2:03
《面向大规模决策的分布式优化架构》247页
专知会员服务
15+阅读 · 今天1:57
智能体技能综合综述:分类、技术与应用
专知会员服务
16+阅读 · 5月11日
相关VIP内容
《人工智能安全治理框架》2.0版发布,90页pdf
专知会员服务
23+阅读 · 2025年10月8日
大语言模型遇见法律人工智能:综述
专知会员服务
25+阅读 · 2025年9月15日
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
【新书】人工智能与法律:安全使用人工智能的实用指南
【人工智能与司法】司法智能化的理论与实践
专知会员服务
25+阅读 · 2022年4月2日
人工智能在司法领域的应用
专知会员服务
51+阅读 · 2022年4月1日
联合国教科文组织发布《人工智能伦理建议书》
专知会员服务
51+阅读 · 2021年12月7日
专知会员服务
63+阅读 · 2021年7月5日
专知会员服务
64+阅读 · 2021年4月16日
相关资讯
重磅!AI框架发展白皮书(2022年),44页pdf
专知
28+阅读 · 2022年2月27日
【人机融合智能】人机融合智能的现状与展望
产业智能官
12+阅读 · 2020年3月18日
人工智能应用实践与趋势
人工智能学家
13+阅读 · 2019年9月20日
面向人工智能的计算机体系结构
计算机研究与发展
14+阅读 · 2019年6月6日
人工智能的现状与未来(附PPT)
人工智能学家
76+阅读 · 2019年3月27日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员