近期冲突中自主武器技术的兴起展示了人工智能日益加剧的军事化。新技术,如基于人工智能的目标定位系统和自主武器系统的快速发展给国际社会带来了重大挑战。一方面,存在与军事化人工智能相关的潜在威胁。另一方面,则存在与算法决策和法律责任相关的伦理困境。尽管过去十年间已在《特定常规武器公约》下建立监管框架,但进展受到阻碍。然而,近期的区域和国际会议显示出日益增长的共识,支持基于两级方法的国际条约。该方法旨在禁止完全自主性,并对武器系统中的自主功能进行监管。
人工智能与武器系统的自主性紧密交织,因为人工智能是赋予这些系统更高自主性的技术赋能者。由于人工智能能力的不断增强,人们担忧机器可能接管人类的功能乃至人类的责任。这些担忧的核心在于自主性问题,因此具有自主功能的武器系统构成了本研究的焦点。
2012年,美国防部在其第3000.09号指令中将自主武器系统定义为一种一旦激活,便能在无需进一步人工干预的情况下选择和攻击目标的武器系统,尽管人类操作员始终可以中止其操作。
学术界后续的出版物以及报告大都采纳了美国防部的概念。国际红十字委员会采用了该定义,将自主武器定义为那些能够在无人干预的情况下选择目标并施加武力的武器系统。然而,国际红十字委员会的定义比美国防部更进一步,因为它强调了“目标特征文件”的存在,这些文件可以与通过传感器接收到的环境信息进行比对。
这些目标特征文件是人权组织,尤其是那些隶属于“停止杀手机器人”平台的组织,主要关切的问题。该平台是旨在监管这些武器系统和新兴技术的国际倡议中民间社会的首要代表。
这两种定义将作为本文中武器系统的概念基础。本文将不使用“杀手机器人”这一概念,因为现有武器系统的多样性和复杂性不鼓励使用如此具有限制性且同时带有倾向性的概念,尽管它在早期出版物和民间社会行为体中很普遍。
为避免重复,本文中将使用自主武器系统这一概念,以及其他描述,如“具有自主功能的武器系统”。鉴于诸如“福音”和“薰衣草”等旨在生成目标清单的平台的出现,本文也将使用“人工智能辅助目标定位系统”这一概念。在完成当前的理论介绍(第2节)之后,本文分为另外四个部分,每部分分析军事化人工智能的不同方面。
在第3节,将探讨人工智能在军事领域的应用。将探讨“人工智能军事化”这一术语是否恰当。武器系统的实例将说明不同程度的自主性。
第4节论述自主武器系统对国际安全的影响。军事技术的全球扩散将通过两种不同方式加以审视:作为广泛可得技术的不受控制的扩散的传播,以及通过官方渠道发生的技术扩散。此外,还将考虑军备竞赛的危险。
第5节将审视与自主武器相关的军事化人工智能的伦理和法律影响,特别关注人类对武器系统的控制。将关注蜂群技术,由于其部署期间的组织结构,该技术使得维持有意义的人类控制成为不可能。本节还将分析现行国际人道法所提供的法律保障。
由于人工智能的颠覆性性质以及对其可能使人类失去对武器系统控制的担忧,呼吁建立国际监管框架的声音已经出现。第6节审视了当前为自主武器系统和新兴技术建立此类框架的国际努力,重点关注在《特定常规武器公约》框架内的倡议及其他非制度性方法。将根据十个国家持续反对任何具有法律约束力的文书这一情况,评估这些工作的成功可能性。
本研究旨在探索应用于自主武器系统的军事化人工智能的重要性。然而,军事化人工智能的影响远不止于此,超出了本文的讨论范围。
研究方法为分析-论述性。鉴于人工智能应用于军事系统的广泛范围,本研究仅限于某些领域。人工智能在核、生物、化学武器及其他非自主军事系统中的应用不予分析。尽管人工智能是这些技术中一个潜在的危险组成部分,但该领域的复杂性超出了本文的范围。