The rapid proliferation of artificial intelligence (AI) has exposed significant deficiencies in risk governance. While ex-ante harm identification and prevention have advanced, Responsible AI scholarship remains underdeveloped in addressing ex-post liability. Core legal questions regarding liability allocation, responsibility attribution, and remedial effectiveness remain insufficiently theorized and institutionalized, particularly for transboundary harms and risks that transcend national jurisdictions. Drawing on contemporary AI risk analyses, we argue that such harms are structurally embedded in global AI supply chains and are likely to escalate in frequency and severity due to cross-border deployment, data infrastructures, and uneven national oversight capacities. Consequently, territorially bounded liability regimes are increasingly inadequate. Using a comparative and interdisciplinary approach, this paper examines compensation and liability frameworks from high-risk transnational domains - including vaccine injury schemes, systemic financial risk governance, commercial nuclear liability, and international environmental regimes - to distill transferable legal design principles such as strict liability, risk pooling, collective risk-sharing, and liability channelling, while highlighting potential structural constraints on their application to AI-related harms. Situated within an international order shaped more by AI arms race dynamics than cooperative governance, the paper outlines the contours of a global AI accountability and compensation architecture, emphasizing the tension between geopolitical rivalry and the collective action required to govern transboundary AI risks effectively.


翻译:人工智能的快速扩散暴露了风险治理领域的重大缺陷。尽管事前危害识别与预防机制已取得进展,但负责任的人工智能研究在处理事后责任归属方面仍发展不足。关于责任分配、归责原则及救济有效性的核心法律问题尚未得到充分理论化与制度化,特别是对于超越国家管辖范围的跨境危害与风险。借鉴当代人工智能风险分析,我们认为此类危害在结构上已嵌入全球人工智能供应链,并可能因跨境部署、数据基础设施及各国监管能力不均等因素而在频率与严重性上不断升级。因此,地域受限的责任制度日益显得不足。本文采用比较与跨学科研究方法,考察高风险跨国领域的赔偿与责任框架——包括疫苗伤害赔偿计划、系统性金融风险治理、商业核责任制度以及国际环境治理机制——从中提炼可迁移的法律设计原则,如严格责任、风险共担池、集体风险分摊及责任定向机制,同时指出这些原则在适用于人工智能相关危害时可能面临的结构性限制。在当前以人工智能军备竞赛而非合作治理为主导的国际秩序背景下,本文勾勒出全球人工智能问责与赔偿架构的轮廓,着重探讨地缘政治竞争与有效治理跨境人工智能风险所需的集体行动之间的张力。

0
下载
关闭预览

相关内容

法律是国家制定或认可的,由国家强制力保证实施的,以规定权利和义务为内容的具有普遍约束力的社会规范。
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
《人工智能安全标准体系(V1.0)》(征求意见稿)
专知会员服务
29+阅读 · 2025年3月23日
中国信通院发布《人工智能风险治理报告(2024年)》
专知会员服务
45+阅读 · 2024年12月26日
人工智能伦理计算
专知会员服务
38+阅读 · 2023年10月13日
专知会员服务
43+阅读 · 2021年9月28日
专知会员服务
64+阅读 · 2021年4月16日
《人工智能安全框架(2020年)》白皮书,68页pdf
专知会员服务
167+阅读 · 2021年1月9日
《人工智能安全测评白皮书》,99页pdf
专知
36+阅读 · 2022年2月26日
边缘智能发展与演进白皮书
物联网智库
13+阅读 · 2019年6月17日
人工智能的现状与未来(附PPT)
人工智能学家
76+阅读 · 2019年3月27日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
推荐几个权威且免费的人工智能学习资源
深度学习世界
10+阅读 · 2018年5月2日
智能时代如何构建金融反欺诈体系?
数据猿
12+阅读 · 2018年3月26日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
相关VIP内容
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
《人工智能安全标准体系(V1.0)》(征求意见稿)
专知会员服务
29+阅读 · 2025年3月23日
中国信通院发布《人工智能风险治理报告(2024年)》
专知会员服务
45+阅读 · 2024年12月26日
人工智能伦理计算
专知会员服务
38+阅读 · 2023年10月13日
专知会员服务
43+阅读 · 2021年9月28日
专知会员服务
64+阅读 · 2021年4月16日
《人工智能安全框架(2020年)》白皮书,68页pdf
专知会员服务
167+阅读 · 2021年1月9日
相关资讯
《人工智能安全测评白皮书》,99页pdf
专知
36+阅读 · 2022年2月26日
边缘智能发展与演进白皮书
物联网智库
13+阅读 · 2019年6月17日
人工智能的现状与未来(附PPT)
人工智能学家
76+阅读 · 2019年3月27日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
推荐几个权威且免费的人工智能学习资源
深度学习世界
10+阅读 · 2018年5月2日
智能时代如何构建金融反欺诈体系?
数据猿
12+阅读 · 2018年3月26日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员