本文第一部分阐述了反火力作战日益增长的重要性、其实施过程中伴随的挑战,以及人工智能在缓解这些挑战方面的潜在贡献。本文以美国防部《战争法手册》作为战时法的权威指南,在第一部分的基础上,探讨将人工智能整合到反火力作战中涉及的法律考量。

根据《手册》所述,战争法的核心原则(军事必要、人道、比例、区分、荣誉)“为具体的战争法规则提供了基础”,并且是“在无具体规则可适用时,指导战争期间行为的准则”。荣誉原则要求敌对双方之间公平与相互尊重,它支撑着战争法的结构,并影响着对其余原则的解释。由于荣誉原则更多是作为一种指导性前提而非可操作的具体决策规则发挥作用,本文将不单独对其进行探讨。

本文假定“Maven智能系统”、“战术智能目标瞄准接入节点”和“快速战术执行空域全面感知系统”的研发符合国防部政策与审查流程,是合法的。因此,本文不评估这些系统本身是否为合法武器。首先,将审视在反火力作战中运用AI辅助决策支持,如何从广义上影响对战争法原则的遵守。其次,更具体地,将分析AI辅助决策支持如何影响规范敌对行为的各项规则。

军事必要性与AI整合

作为一项门槛问题,《战争法手册》承认某些“类型的行动……本质上是军事必要的”。反火力作战即属于本质上军事必要的行动,因为它以敌方炮兵——其唯一功能是促成军事行动的目标——为打击对象。这在反应式反火力中最为明显,它直接回应敌方先前的攻击。人道原则,被《手册》理解为军事必要性的“逻辑对立面”,在必须对每次作战情境中的必要性进行评估和限定时,始终相关。

将AI整合到反火力作战所带来的法律问题,在区分和比例性原则下最为突出。这些原则及相关规则管辖着目标识别、目标排序和附带效应评估,而这些功能正日益由AI赋能系统提供信息或加速。军事必要性和人道原则构建并约束着分析,但AI赋能的反火力作战的合法性,最终取决于这些系统能否在高速和大规模下保持对区分和比例性原则的遵守。

*反火力作战的法律约束

这三个系统的一个共同点是,它们能够接收和处理大量数据,为决策者提供攻击建议。《手册》第五章概述了这些原则和规则如何规范敌对行为,并影响这些系统在攻击期间的能力。来自《手册》§ 5.4.2 的以下四条规则,与AI赋能的反火力作战“攻击”决策尤为相关:

  1. 战斗员可将军事目标作为攻击对象,但不得针对平民、民用物体或其他受保护的人员和物体发动攻击;
  2. 如果预期对平民造成的生命损失或伤害,以及对民用物体造成的附带损害,与预期获得的具体、直接的军事优势相比是过分的,则战斗员必须克制不发动攻击;
  3. 战斗员在计划和实施攻击时,必须采取可行的预防措施,以降低对平民及其他受保护人员和物体造成伤害的风险;
  4. 在实施攻击时,战斗员必须善意评估其可获取的信息。

反火力任务满足第一条规则,因为战争法明确将敌方炮兵(或武器)认定为军事目标。即便如此,由于现代炮兵高度机动,反火力作战本质上具有时间敏感性,且目标的转移可能引发其在交战时刻是否仍是有效军事目标的关切。因此,对时机的敏感性塑造了规范敌对行为的其余规则在反火力作战中的应用方式。

上述第四条规则要求善意评估信息。《手册》第5.3节明确指出,“指挥官及其他决策者必须基于其可获取的信息,善意地做出决策”。该规则不要求完美,并防止事后追溯判断。同时,该规则很可能预设决策者会实质性地处理其在决策时合理可用的信息。该规则给予指挥官一定程度的灵活性,承认信息常常是不完整、模糊或具有时间敏感性的,尤其是在动态目标定位环境中。然而,这种灵活性并非无限。善意行事的义务不仅意味着免受后见之明偏见的影响,也包含着积极考虑可获取且在作战上有用之相关信息的责任。

诸如MSS、TITAN和ASTARTE这类系统,通过快速收集、分类和情境化那些在压缩时间线下超出人类认知能力的数据,实质性地改变了何为“可获取”的信息。因此,善意的考量越来越不取决于指挥官是否拥有完美的信息,而在于可用的决策者是否合理、适当地使用工具来处理和综合信息。虽然法律并未强制要求采用任何特定技术,但AI决策支持的日益普及提出了一个更棘手的问题:当军方部署旨在减少不确定性的系统时,决策者未能理解或使用这些系统,是否构成未能满足善意评估可用信息的要求?

更多的信息并不必然提高合规性,指挥官也无需接受每一个AI生成的建议。相反,新出现的法律张力在于,当存在旨在使判断更加明智的技术时,指挥官如何在信息丰富的环境中行使判断力,在依赖、怀疑和时间限制之间取得平衡。从这个意义上说,AI系统并未取代善意要求;它重新校准了满足该要求的预期标准。

如何满足善意要求

善意问题从仅仅关注当时有何可用信息,转向指挥官如何处理和优先排序海量可用信息。在这些新的AI系统背景下,遵守善意评估信息规则,要求指挥官和决策者熟悉这些系统的运作方式,并确保将其妥善整合到规划和决策流程中。否则将无法满足此规则的要求。

接下来,考虑战争法下的比例性原则。将AI整合到反火力作战中,显著关系到指挥官的责任。AI系统可以影响对预期军事优势和预期附带损害的评估方式,但不能取代该规则或指挥官执行该规则的责任。当指挥官或决策者接受一个看似已预先确定比例性评估的建议时,这些系统带来的法律风险最大。

该规则允许通过适用于反火力作战的既定程序来实施比例性原则,例如指挥官的攻击指导,它根据目标类型指定火力指令。AI系统不需要新的攻击指导或新奇的武器运用计划;它们仅需将现有程序妥善整合到系统中。

建议

为确保嵌入AI赋能反火力系统的比例性及其他法律判定保持合理,指挥官应实施标准化操作程序,将区分和比例性原则作为制度性义务,而非临时判断加以对待。虽然通过SOP确保遵守规则的方法很多,提出以下五项建议:

  1. 要求部队定期验证和“清理”系统输入 军事单位应制定计划,定期核查目标数据库、环境假设、通信链路、指挥官指导等系统输入是否保持最新和准确。尽管许多输入是实时更新的,但对时间、通信等的定期确认和抽查,可降低滞后或数据漂移(可能扭曲比例性评估)的风险。

  2. 在各层级指定责任人 指挥官应在使用系统的每一层级指定负责系统管理和更新监控的特定军官或士兵。明确的职责归属确保了问责制,防止比例性假设在不同参谋部门间推诿或默认由承包商监督。

  3. 针对系统赋能的比例性进行个人培训 操作或依赖这些系统的人员,应接受的培训需超越系统可操作性,涵盖区分和比例性原则如何被整合及更新。培训应强调如何识别输入有缺陷或不完整的迹象,以及采取何种步骤来更新或标记这些问题。

  4. 明确武器运用和约束输入的批准权限 SOP应规定更改系统内嵌的武器运用逻辑、附带损害评估参数、非打击目标清单以及源自交战规则约束所需的批准级别。系统功能及遵守指挥官责任的关键,在于能否有效输入各级指挥和作战各阶段的指挥官指导。必须有足够的权限允许进行更改,但需辅以适当的监督和授权。

  5. 定期的分层级培训与认证周期 使用这些系统的单位应为火力单元和目标定位团队建立周期性的培训要求。这些周期应包括基本的通信压力测试和基于场景的演练,以检验区分和比例性判断,类似于当前纳入大多数单位作战节奏和周期性训练要求的数字化火力持续训练。

这些建议并非包罗万象,需根据任务和单位情况进行调整实施。然而,对于影响目标定位和武器运用决策的AI系统,某种形式的制度化维护、验证和培训机制是必要的,以确保遵守战争法原则。当部队通过交战规则、SOP和嵌入系统的武器运用逻辑来实施比例性原则时,未能维持这些程序将带来系统性违规的风险,即使个别指挥官是善意行事。

预防措施

考虑到战争法关于采取可行预防措施的义务,制度性风险变得更加突出。上述程序将区分和比例性原则直接整合到系统和作战中,构成了计划和实施攻击时的可行预防措施。区分原则与比例性原则一样,也要求“采取可行预防措施,以核实拟攻击目标是军事目标”。《战争法手册》以非穷尽方式列举了以下预防措施:审查支持潜在目标是军事目标之评估的信息的准确性和可靠性;对照非打击目标清单和敏感地点清单核查潜在目标位置;在合理间隔内并根据新的信息和变化的情况(例如,以确定敌方是否仍在使用该物体用于军事目的,或摧毁/压制该物体是否仍能带来明确的军事优势)重新审查先前批准的目标;收集更多信息,如通过情报、监视和侦察平台对目标进行视觉识别;以及在实施计划攻击时采取措施,确认拟攻击的人员或物体确实是预定目标。

MSS、TITAN和ASTARTE旨在通过增加可用于核实拟议目标为军事目标的信息量、速度和准确性,来支持对区分原则的遵守。通过融合传感器数据、情报报告和上下文信息,这些系统可以促进上述建议的预防措施。此外,在比例性讨论中阐明的一些建议SOP,也可作为区分原则目的下的可行预防措施。

若得到妥善实施,此类措施有助于确保增加的信息能力转化为准确、合法的目标核实,并遵守尽可能降低对平民伤害风险的规定。尽管MSS、TITAN和ASTARTE具备展示其可合法运用的共同特点,但每个系统在目标定位过程中的作用引发了需要单独审视的独特法律考量。

新型AI技术面临的不同法律问题

与AI赋能反火力作战相关的四大主要法律问题包括:权力分配、兵力选择、时间受限的判断以及攻击后义务。

权力分配

《战争法手册》反复强调指挥官在各原则相关决策和判断中的作用。AI系统扩展了可供下级指挥官和参谋军官使用的事实依据,表明他们有能力代表指挥官做出决策。尽管《手册》一贯指出判断是指挥官的责任,但在没有“相反”指示的情况下,下属“拥有做出相应决定的权力”。授权问题存在于所有三个系统中,但在使用TITAN进行反应式反火力,或使用MSS进行动态目标定位时感受最为强烈。

在这两种缩短的决策过程中,适当的权力分配对于满足比例性规则尤为关键。此外,下属可获得的信息增加,可能允许指挥官提供较不具体的指导,同时仍能履行其法律义务。规则不要求指挥官达到相同程度的参与或精确性,因为他们无法无处不在。规则承认判断的主观性,并认为应给予“一定程度的尊重”。

最终,指挥官不得懈怠,不得不分青红皂白地将决策权下放给任何操作TITAN或ASTARTE的人(无论其是否合格)。但这些系统提供的更高的信息可信度,可能使指挥官能够行使更大的权力并进行合法的授权。

兵力选择

就目前的设计和操作而言,这些系统不存在所谓的“人在回路”问题。可以说,它们没有一个能“按下开火按钮”。然而,关于可对目标合法使用多少兵力的问题,引出了有意义的人类控制/审查或适当人类判断的议题。如上所述,兵力选择的关切主要出现在这些系统支持实时目标定位决策而非计划性火力规划时。

为保持符合战争法,AI目标定位系统可能应保留一定程度的人类参与兵力选择。如果操作员无法修改或否决系统生成的火力指令,那么实际上做出区分或比例性判断的就是系统而非人类,即使人类正式授权了执行。

因此,合法使用应至少要求:1)可由人类操作员编辑的火力指令;2)对能够独立评估武器运用和效果的火力人员进行持续技术培训;3)定期核查和更新指挥指导,以确保系统输出与指挥官意图和当前作战条件保持一致。然而,保留人类对兵力选择的判断权,并不能消除快速反火力时间线带来的压力,这本身就制约着比例性判断。

时间受限的判断

《手册》承认,满足比例性原则“在实质上受到做决策和采取预防措施可用时间的影响”。每项AI技术都使指挥官能够拥有更清晰的通用作战图。然而,清晰度并不能改变反应式与主动式反火力可用时间的差异。战争法并未区分这两种情况,也未规定任何超越“可行”本身的最低可行预防措施标准。相反,它允许根据任务类型和其他战场情境因素进行作战上的变通。

例如,由TITAN支持的反应式反火力,可能要求决策者在交战时依赖不完整的信息。只要指挥官是善意做出判断,法律在此类情况下容忍减少预防措施。相比之下,当MSS用于主动式反火力或计划性目标定位,或用于支持非即时反火力响应的动态目标定位时,决策者可能有更多的时间和信息资源可用。在这些情况下,更精细的模式分析、目标验证和附带考量变得可行,法律相应地会期待更多。

《手册》建议实现比例性要求的一种方式是通过目标定位程序培训。除了培训和流程实施,使用AI本身也可以成为一种可行的预防措施。例如,ASTARTE可以为指挥官提供更好的态势感知以防止附带伤害。MSS和TITAN也内置了可能作为可行预防措施的类似功能。AI并未放宽时间受限交战中区分和比例性原则的要求;相反,它可以通过提高可合理投入于目标定位决策的谨慎水平,来作为一种可行的预防措施。

攻击后义务

战争法并未施加在每次攻击后必须进行战斗毁伤评估的普遍义务,也不仅凭事后获得的信息来评判区分或比例性。尽管如此,当攻击后信息合理可用时,它可以为未来的目标定位决策提供积极参考。MSS的一个实际优势是其能够通过战斗毁伤评估来闭合火力任务循环。这有助于解决目标定位和火力单元中普遍存在的毁伤评估不完整或延迟的难题。

在MSS能够提供更可靠的攻击后态势感知的情况下,规划者可以将该信息纳入后续计划,以改进目标验证、调整兵力使用并降低重复或不必要打击的风险。通过这种方式,MSS并未创设新的法律义务,但它通过提高可用于未来决策的信息质量,增强了指挥官遵守现有战争法原则的能力。

结论

将AI整合到反火力作战中,为陆军提供了一种可靠的方法,在不背离现有战争法要求的前提下,压缩针对敌方炮兵的“传感器到射手”周期。新部署和新兴的AI系统并未改变法律的要求;指导原则和管辖规则依然有效。若使用得当,这些系统可以通过改进目标验证、减少不确定性并在现代反火力容易出现问题的环节加速协调,从而加强合规性。

由此产生三个持久的影响。首先,速度不能取代判断。AI可以加速建议的生成,但指挥官仍然对决定打击什么目标、使用何种兵力以及在何种约束下行动负责。其次,更好的信息提高了对预防措施的期望。随着AI扩展了当下可知的信息范围,善意的基准发生了转移:决策者必须理解这些工具,质疑其假设,并将验证制度化,以使合法性跟上作战节奏。第三,即使在机器辅助分析的情况下,责任也仅能由人类承担。部队可以且应当将比例性和区分原则的保障措施嵌入SOP、培训和批准流程,但这些结构必须保留对兵力选择有意义的人类审查,并确保在时间敏感的火力打击中具有清晰、可追溯的授权。

AI赋能的反火力作战既可以更快,也可以合法,但前提是合规性被嵌入到作战设计中,而非事后评估。

参考来源:Megan Ezekannagha, Fighting at Machine Speed: AI and U.S. Army Counterfire Under the Law of War – Part II, Lieber Westpoint, Apr 6, 2026. https://lieber.westpoint.edu/fighting-machine-speed-ai-us-army-counterfire-law-war-part-ii/

成为VIP会员查看完整内容
2

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
人工智能增强混合战争中的反攻决策
专知会员服务
20+阅读 · 3月19日
《人工智能军事化与自主武器》
专知会员服务
27+阅读 · 1月6日
中文版 | 人工智能作为海军陆战队的“力量倍增器”
专知会员服务
20+阅读 · 2025年4月23日
人工智能赋能自主武器:变革现代战争
专知会员服务
42+阅读 · 2024年8月14日
智能战争机器:军事中的人工智能
专知会员服务
61+阅读 · 2024年6月4日
美陆军将人工智能融入多领域海陆空联合攻击中
专知会员服务
24+阅读 · 2024年1月5日
争分夺秒:人工智能速度下的战争
专知会员服务
67+阅读 · 2023年11月15日
从规划到执行:人工智能在军事行动中的作用
专知会员服务
110+阅读 · 2023年9月22日
《作战层面的人工智能》美国海军学院32页报告
专知会员服务
248+阅读 · 2022年12月17日
国家自然科学基金
333+阅读 · 2017年12月31日
国家自然科学基金
119+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2014年12月31日
国家自然科学基金
50+阅读 · 2013年12月31日
国家自然科学基金
38+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
96+阅读 · 2009年12月31日
Arxiv
0+阅读 · 3月17日
VIP会员
最新内容
美/以-伊战争:停火与后续情景与影响分析
专知会员服务
1+阅读 · 今天14:52
美国-以色列-伊朗战争:是否会动用地面部队?
专知会员服务
0+阅读 · 今天14:27
美国协同作战飞机项目新型无人机发动机
专知会员服务
0+阅读 · 今天13:59
无人机在美以伊战争中的关键启示(印度视角)
专知会员服务
1+阅读 · 今天7:33
美军夺取伊朗离岸岛屿分析:高风险,低收益
专知会员服务
8+阅读 · 4月10日
相关VIP内容
人工智能增强混合战争中的反攻决策
专知会员服务
20+阅读 · 3月19日
《人工智能军事化与自主武器》
专知会员服务
27+阅读 · 1月6日
中文版 | 人工智能作为海军陆战队的“力量倍增器”
专知会员服务
20+阅读 · 2025年4月23日
人工智能赋能自主武器:变革现代战争
专知会员服务
42+阅读 · 2024年8月14日
智能战争机器:军事中的人工智能
专知会员服务
61+阅读 · 2024年6月4日
美陆军将人工智能融入多领域海陆空联合攻击中
专知会员服务
24+阅读 · 2024年1月5日
争分夺秒:人工智能速度下的战争
专知会员服务
67+阅读 · 2023年11月15日
从规划到执行:人工智能在军事行动中的作用
专知会员服务
110+阅读 · 2023年9月22日
《作战层面的人工智能》美国海军学院32页报告
专知会员服务
248+阅读 · 2022年12月17日
相关资讯
相关基金
国家自然科学基金
333+阅读 · 2017年12月31日
国家自然科学基金
119+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2014年12月31日
国家自然科学基金
50+阅读 · 2013年12月31日
国家自然科学基金
38+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
96+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员