在乌克兰、加沙和伊朗,人工智能战争已占据主导地位,却几乎没有任何监督或问责。
战场上萦绕着一个无法消除的不确定性:战争迷雾。两个世纪以来,军事创新一直承诺要驱散这层迷雾。人工智能曾被寄望为最终实现这一目标的技术,将用机器的精确性取代人类猜测,并以让不确定性过时的速度处理海量数据。
其优势是真实存在的。人工智能可以通过让机器首先进入杀伤区来保护士兵。能比任何人更快地处理海量传感器数据,并能以拦截弹道导弹所需的速度协调多层防空系统。任何严肃的军事人工智能政策,都必须首先承认这些能力能够拯救生命,并且无论国家作何决定,对手都将部署这些技术。
然而,承认优势不等于忽视当速度、消耗和规模成为战争组织原则时会发生什么。美国总统唐纳德·特朗普与Anthropic公司的争执——该公司坚持其模型在缺乏防止完全自主武器和大规模国内监控的护栏情况下不得使用——最终以五角大楼将该公司列为供应链风险而告终。这个全球最大军事强国发出的信息是:对军事人工智能的规范约束是创新的障碍,而非合法使用的前提。
为填补此真空,欧盟开始通过“BraveTech EU”、欧盟国防工业转型路线图以及2026年无人机和反无人机安全行动计划,来构建国防技术基础的制度架构。然而,这些举措绝不能仅仅复制人工智能驱动的国防创新中速度最大化的逻辑。而应该在系统部署之前(而非伤害发生之后),将法律问责、有意义的人类判断和审慎过程嵌入系统之中。
在实践中,这需要愿意接受某些目标瞄准周期必须保持缓慢。需要一种将“审慎暂停”——即人类真正评估并推翻算法建议所需的时间——视为战略资产而非作战负担的条令。还需要建立可执行的“红线”,并将其嵌入整个人工智能生命周期,从创新、开发、国防采购、出口管制,直到作战条令。人类判断的形式外壳不应成为算法杀戮的法律托词。
但也应注意,在这样做时不应扼杀持续创新所必需的实验,而创新对于在战场上获取至关重要的边际优势至关重要。三个战区提供了重要教训:乌克兰、加沙和伊朗。
首先,基于机密战场数据重新训练的人工智能,提高了乌克兰的无人机交战率,将一场消耗性的防御战变得更具可持续性。其次,以色列的综合指挥系统现在能实时协调美国“萨德”反导系统、宙斯盾舰和以色列平台之间的拦截行动,确定哪个系统拦截哪枚来袭导弹,从而在伊朗的导弹齐射中避免拦截弹的浪费。第三,美国的低成本无人作战攻击系统无人机,在2026年2月的“史诗怒火”行动中首次部署,使用基于视觉的目标识别而非静态卫星坐标。相比其逆向仿制的伊朗“沙赫德”无人机,这提高了精度并减少了平民伤害。
然而,在这些战场上,人工智能也产生了一种比经典不确定性更危险的东西:一种由信息过剩而非信息匮乏产生的迷雾。如果说经典的战争迷雾是因知之甚少而令指挥官盲目,那么人工智能战争的迷雾则是因知而不解。算法的评分、概率目标清单和建议,其生成速度超过了任何人能够评估的速度。结果是制造出了一种虚假的清晰度,掩盖了人工智能黑箱更深的不可理解性。
以色列国防军使用“薰衣草”人工智能系统,该程序根据汇总的监视数据对数万名巴勒斯坦男性进行概率评分,这暴露了这一问题的核心。据报道,“薰衣草”难以区分合法的军事目标与平民,而审查程序过于薄弱,无法可靠地过滤错误目标。报告指出,人类分析员平均花费20秒审查每一条建议,很大程度上只是为了确认目标是男性。与其并行的“圣经”系统,在不到两周内生成了200条基础设施目标建议,而此前军官们一年可能只产出50条。实践中,速度压倒了审查。
2026年的伊朗冲突加深了这一模式。标志着美国首次在战斗部署LUCAS攻击无人机,同时据称使用了大型语言模型处理卫星图像、评估信号情报和运行战斗模拟。问题不仅在于无人机本身,而在于人工智能对感知、分析和目标瞄准整个流程的更广泛压缩。人类用来质疑机器生成结果的时间更少了。
在所有上述战场,同样的动态反复上演:人工智能将目标瞄准周期加速到一种节奏,使得有意义的人类监督往往在程序上存在,但实质上空洞。有意义的判断意味着审查目标识别、评估相称性、并决定是否打击。现在,人类仍然“在环”——但却没有真正的时间去质疑机器。
这造成了一个经典不确定性从未带来的问责问题。旧的战争迷雾让指挥官沮丧,但责任链完好无损。人工智能将决策主体性分散在开发者、数据工程师、采购官员、操作员和指挥官之间,直到责任消失殆尽。人类依然“在环”,就像文件上的签名:存在且法律上可追溯,但在功能上与决策内容无关。
国际治理要么滞后,要么缺乏执行力。人工智能系统已经在彻底改变战争,并非所有这些变化都是有害的。但人工智能战争的迷雾——那种以机器输出替代人类判断所制造出的虚假确定性——不会自行消散。必须得到治理。
参考来源:Strategic Europe于2026.4.16报道。