引言
快速共享和处理信息对于有效进行战争仍然至关重要(Simonetti & Tripodi, 2020)。随着当今战场因数字系统和传感器的扩散而变得数据日益丰富,指挥官必须处理不断膨胀的数据量以有效开展行动(Simonetti & Tripodi, 2020; Watling, 2023)。为了迅速理解这些数据,指挥官越来越依赖于使用人工智能的决策支持系统(Lucas, 2024)。人工智能的这种日益增长的应用延伸到指挥控制领域,指挥控制指的是“指挥官为完成任务对所属部队行使权力和指导”(Hinote, 2024, p.1)。人工智能正在加速整个指挥控制活动和决策过程,从军事行动的规划与执行到战争作战,并且正成为应对战争不断演变的速度、规模和复杂性的重要手段(Balis & O'Neill, 2022; Hinote, 2024; Lucas, 2024; Simonetti & Tripodi, 2020)。人工智能日益增长的重要性及其带来的指挥控制加速,给指挥官带来了诸如过度依赖人工智能系统、对这些系统缺乏信任、使用训练不足等问题,此外还有人工智能支持的指挥控制所面临的潜在战术、技术和伦理挑战(Collazzo, 2025)。关键的挑战在于理解人工智能应用于指挥控制的缺点,并通过在指挥控制结构和决策中平衡人与机器的参与来抵消这些缺点。
本文认为,通过人工智能加速指挥控制既是必要的也是可取的,但必须保持人类在人工智能支持的决策回路上参与。决策回路指的是整个决策过程。处于决策回路“之上”意味着人类无需同意人工智能做出的每一个决定,但保留在其展开过程中进行干预和阻止某些决定的能力(Hinote, 2024; Lucas, 2024; Simonetti & Tripodi, 2020)。首先,本文探讨了通过人工智能加速指挥控制的利弊,并概述了这一过程的影响。然后,具体阐述了这种加速对陆军指挥官及其参谋人员的优势和劣势,最后为欧洲陆军提出建议。
及时有效地采用技术创新在战争进行中扮演着重要角色(Simonetti & Tripodi, 2020)。自第一次海湾战争及精确制导弹药和数字系统出现以来,军事领导者就设想由新兴技术驱动的更快、更高效的部队(Quinn, Sickler, & Wiltse, 2025)。与此同时,战场的电气化和数字化逐步使提供和依赖数据运行的传感器和系统成倍增加,在恰当时机对其优先排序能带来决定性优势(Watling, 2023)。积累这些数据的传感器对于驱动以人类无法达到的速度处理信息的人工智能算法至关重要(Balis & O'Neill, 2022; Luckenbaugh, 2023)。因此,对遍布战场的传感器收集的海量数据进行优先排序,对于为指挥控制决策提供信息非常重要。
整个指挥控制活动范围通过人工智能带来的效率提升而得到进一步加速(Balis & O'Neill, 2022)。事实上,正如沃特林(2023)强调的,数据的相关性具有保质期,而确立其相关性的过程必须短于其对用户有用的时间段。这个过程也依赖于硬件和带宽能力,以便将大量数据快速传送给用户。为避免饱和,人工智能可以进一步确定哪些数据需要从一个位置移动到另一个位置的优先级。这凸显了人工智能可以帮助部队在电子饱和的战场中(士兵无法依赖诸如空中或海上领域的大型平台)最佳利用常常短缺的带宽。因此,人工智能有助于最大化指挥控制的手段,并实现更精确、有效的决策。
运行于大量数据之上的联网人工智能系统将变得越来越复杂,因此也更难部署和操作(Lucas, 2024)。陆军部队在管理这些系统及其所需的数据量时尤其面临独特的挑战。它们必须连接更多的节点,为这些耗能巨大的系统供电,并与复杂地形带来的干扰作斗争(Watling, 2023)。为实现人工智能有效辅助指挥控制结构而连接这些节点,也增加了对网络攻击的脆弱性,敌对方的军事和非军事机构可以加以利用(Luckenbaugh, 2023; Watling, 2023)。因此,无论是硬件还是软件方面的考虑,都意味着在战场上有效部署人工智能系统仍然具有挑战性。
指挥官在领导作战时必须应对“迷雾”(克劳塞维茨对战争不确定性的术语)、摩擦、恐惧和变化(Hinote, 2024)。在虚拟环境中开发的人工智能系统首次部署到不可预测、高风险的战斗环境中时,很可能会出现异常(Collazzo, 2025; Hinote, 2024)。这可能是由于缺乏相关的训练数据,或者因为受限于安全或后勤等因素而无法在战斗条件下进行测试(Hinote, 2024)。因此,人工智能仍在与战争的“战略混沌”及其多种可能结果所带来的摩擦和模糊性作斗争(Freedberg, 2023)。
人工智能也难以处理与指挥控制决策高度相关的伦理和道德考量(Lucas, 2024)。当前,由人工智能在极少或没有人类输入的情况下做出关于动能行动的决策,违反了关于致命性自主武器的国际人道法(武装冲突法)(Lucas, 2024)。这反过来又引发了责任和问责方面的担忧(Johnson, 2023)。如果人工智能做出的决策违反了国际人道法,谁来负责?以军事权宜之计为由,将困难的道德或伦理决策委托给人工智能是否合理,在国际社会仍备受争议(Johnson, 2023)。这场辩论将塑造人工智能在军事格局中的作用及其在指挥控制决策回路中的地位。
将人工智能应用于指挥控制,可指数级增强通信、数据分析和效率(Balis & O'Neill, 2022)。随着人工智能的进步,将其应用于指挥控制似乎是合乎逻辑的,甚至是不可避免的。然而,用人工智能使指挥控制及其决策过程完全自动化,会引入新的脆弱性并挑战其生存能力。人工智能系统及其数据因其连接性以及可对其发动攻击的节点繁多,仍然容易受到网络攻击(Watling, 2023)。此外,速度的提升带来了战略和战役层面以及战争节奏的变化,这使得识别和理解这些新动态成为当务之急。指挥控制中人工智能自动化的程度,取决于塑造部队结构和需求的诸多因素、约束条件和目标。
在武器系统和决策过程中使用人工智能,将对战略和力量平衡产生颠覆性后果(Simonetti & Tripodi, 2020)。部队的战略和学说必须考虑人工智能及其带来的指挥控制加速。重要的是,人工智能将塑造战争的伦理、道德和法律特性。欧洲陆军应表明其对国际秩序及其机构、规则和准则的承诺,其指挥官如果希望利用人工智能赋能的指挥控制,就必须应对这些挑战。
决策结构中的所有信息最终汇聚于指挥官(Balis & O'Neill, 2022)。指挥官的态势感知取决于这些信息的数量和相关性,以及他们获取、理解并据此采取行动的速度。沃特林(2023, p. 8)将态势感知定义为“士兵对其相对于友军和敌军的位置,以及周围人员试图达成的目标的了解程度”。人工智能通过帮助确定数据优先级和分发数据,辅助指挥官预测敌方行动并理解己方部队如何定位和应对,从而改善态势感知(Collazzo, 2025; Watling, 2023)。在联合作战或全域作战中,人工智能对战场实时、整体的理解有助于在加速的决策回路中同步部队行动(Simonetti & Tripodi, 2020)。对指挥官而言,这些能力通过针对敌方行动做好准备,有助于增强部队的韧性(Lucas, 2024)。人工智能通过优化指挥官的手段,使陆军部队能够精确而有效地作战。
人工智能通过弥补人类的认知和生理局限,进一步增强了陆军部队的韧性和效能(Collazzo, 2025)。指挥控制结构中某些方面的人工智能自动化可以减轻疲劳或人为错误等因素的影响(Simonetti & Tripodi, 2020)。在伦理上,将细致的战场洞察与适用于冲突的规则、判例和学术研究的全部内容相结合的人工智能系统,将允许进行更精确、更符合法律的比例原则评估和打击目标决策(Harper, 2024)。尽管将伦理准则整合到人工智能系统中并不能解决其潜在的偏见,但如果与人类监督相结合,它可以降低人工智能引发的法律或规范违规以及过度暴力的风险(Johnson, 2023)。随着人工智能系统加速整个指挥控制过程,通过降低人为错误风险来支持指挥官决策的框架将变得越来越重要。
然而,由于其新颖性和快速演变,指挥官尚未在指挥控制中充分利用和整合人工智能系统。为了在人工智能进一步融入指挥控制流程时支持指挥官完成任务和决策,人工智能不仅必须正确,还必须值得信赖(Hinote, 2024; Watling, 2023)。指挥官可能不愿意基于比那些易于评估的输出更难验证的人工智能输出做出决策(Hinote, 2024)。这个“黑箱”问题——当人工智能的输出无法解释或理解时——进一步使对人工智能的信任复杂化(Balis & O'Neill, 2022)。建立信任的另一个障碍是其技术复杂性,例如人工智能需要接收其输出所依据的数据,但连接不可靠(Watling, 2023)。尽管存在这些障碍,指挥官可以通过适当的训练、安全的系统和可靠的数据来建立对人工智能的信任(Watling, 2023)。
此外,即使是通过人工智能对指挥控制结构进行部分自动化,也会将指挥官的角色从控制者转变为队友,影响其行为和心态(Balis & O'Neill, 2022; Johnson, 2023)。相反,这可能导致指挥官过度依赖并对人工智能输出过度自信(Collazzo, 2025)。如果在没有批判性思维或充分理解的情况下这样做,他们可能会基于错误或被误解的结果采取行动(Collazzo, 2025)。过度依赖人工智能也可能影响指挥官在人工智能不可用或被证明不可靠时的适应能力(Collazzo, 2025)。独立思考、创造力和适应性在指挥控制决策中仍然至关重要,应由人工智能来补充而非替代(Balis & O'Neill, 2022; Simonetti & Tripodi, 2020)。欧洲陆军应通过让士兵参与人工智能系统的设计和训练,确保从开发阶段就保持其以用户为中心(Balis & O'Neill, 2022; Lucas, 2024; Luckenbaugh, 2023)。将此与持续训练相结合,将使士兵能够有效使用这项技术,理解其输出,并相信其能提供结果(Balis & O'Neill, 2022; Lucas, 2024)。
人工智能并非被动的,如果被整合到决策回路中,它有可能成为战争中的一个战略行为体(Johnson, 2023)。除了战略和伦理问题,这还引发了我们是否应将人工智能视为一个具有影响人类队友的权利和义务的团队成员的问题(Balis & O'Neill, 2022)。对人工智能日益增长的依赖将改变指挥控制结构内的团队动态以及人类团队成员的任务和角色(Balis & O'Neill, 2022)。一种将人工智能视为战争中和团队内行为体的学说,将更好地应对其在指挥控制结构内的影响。
指挥官应保持对人工智能输出适当的怀疑态度,并培养有效决策所必需的批判性思维、直觉和伦理推理能力(Collazzo, 2025)。必须不断重新定义人类,特别是指挥官,在指挥控制和决策中的作用,以应对日益增加的对人工智能的依赖以及由此产生的决策回路加速。欧洲陆军还应警惕人工智能特有的脆弱性,特别是网络攻击和数据泄露。持续监控、确保人工智能系统在网络空间的界限以及安全的网络实践,对于人工智能在指挥控制中的生存能力和可信度至关重要(Watling, 2023)。通过满足这些条件并保持人类在决策回路上,欧洲陆军可以利用人工智能来增强和加速指挥控制,同时抵消其局限性。
随着人工智能能力日益增强,其在指挥控制活动和决策中的作用将继续以不可逆转和指数级的速度增长(Johnson, 2023)。这将进一步加速决策回路以及为其提供信息的数据处理和分发。为了保持在这个决策回路上,指挥官及其参谋人员将不得不重新思考他们的角色和任务,并重组现有的指挥控制结构(Balis & O'Neill, 2022; Simonetti & Tripodi, 2020)。保持人类的参与和监督仍然是必要的。人工智能提供的效率、态势感知和速度不应以牺牲伦理和问责为代价,也不应主导指挥官的思维。必须开发和实施人工智能,以在指挥控制决策回路中支持而非取代人类(Balis & O'Neill, 2022)。
除非整合到部队的文化和学说中,否则像人工智能这样的颠覆性技术无法发挥其全部潜力(Simonetti & Tripodi, 2020)。为了在战争的各个层级充分受益于人工智能决策,欧洲陆军将需要重新思考其指挥控制结构和系统,并充分训练指挥官及其参谋人员使用和理解这些工具(Barry & Wilcox, 2025; Lucas, 2024)。最后,人工智能在指挥控制中日益突出的地位,将有利于那些能最高效、最有效运用它的人(Simonetti & Tripodi, 2020)。这将影响全球力量平衡,因此欧洲陆军必须减轻其风险并最大化其效益,以维持军事优势(Simonetti & Tripodi, 2020)。
Balis, C., & O’Neill, P. (2022). Trust in AI: Rethinking future command. Royal United Services Institute. https://static.rusi.org/332_OP_Trust_in_AI_Final_Web.pdf
Barry, W.J., & Wilcox, B. (2025, May 9). Neocentaur: A Model for Cognitive Evolution Across the levels of War. Modern War Institute. https://mwi.westpoint.edu/neocentaur-a-model-for-cognitive-evolution-across-the-levels-ofwar/
Collazzo, A. (2025, February 21). Warfare at the speed of thought: Balancing AI and critical thinking for the military leaders of tomorrow. Modern War Institute. https://mwi.westpoint.edu/warfare-at-the-speed-of-thought-balancing-ai-and-criticalthinking-for-the-military-leaders-of-tomorrow/
Demarest, C. (2024, February 21). Pentagon achieves ‘minimum viable’ version of CJADC2, Hicks says. C4ISRNET. https://www.c4isrnet.com/battlefield-tech/c2-comms/2024/02/21/pentagon-achievesminimum-viable-version-of-cjadc2-hicks-says/
European Commission, (2019, April 8). High-Level Expert Group on Artificial Intelligence. European Commission. https://digital-strategy.ec.europa.eu/en/library/definition-artificial-intelligence-maincapabilities-and-scientific-disciplines
Freedberg, S., Jr. (2023, September 5). 3 ways DARPA aims to tame ‘strategic chaos’ with AI. Breaking Defense. https://breakingdefense.com/2023/09/three-ways-darpa-aims-to-tame-strategic-chaos-withai/