美国与以色列近期主导的针对伊朗的行动很快被贴上了“首场人工智能战争”的标签。乍一看,这种说法似乎很有力、吸引眼球,甚至象征意义十足。然而,从分析角度看,其并未完全反映现实。我们今天所目睹的,并非人工智能首次进入战争;相反,这是一段时间以来已在不同战场上逐渐被测试、完善和制度化的使用模式,正变得更加显著和密集。
实际上,这一进程的痕迹早已显现。乌克兰战争是首批重大例证之一,展示了人工智能如何在数据处理、目标识别和情报分析中发挥作用。加沙战争则揭示了这些技术如何超越了单纯的辅助角色,直接嵌入到杀伤链中。最近针对伊朗的行动,正是建立在这两次经验之上的一个阶段,即更加协调、系统化且规模更大。因此,更准确地说,这不是“首次”,而是战争转型中的一个新门槛。
鉴于此,乌克兰、加沙和伊朗等地的战争不应被视为孤立事件,而应视为同一整体的组成部分。每场战争都如同一个实验室,展示了人工智能可在哪些作战领域使用、能以何种速度驱动决策、会在何处产生错误,以及为现场行动方带来何种优势。更重要的是,这些战争不仅是在测试技术,同时也在积累操作者的经验。这就是为什么像美国和以色列这样的行动方越是频繁地进行此类战争,他们所做的就越多:不仅是积累数据,更是为下一场战争积累经验、增强适应性和提高效能。如今,问题不再仅仅是谁拥有更优越的人工智能系统,而是谁通过更广泛地在战斗中使用这些系统,正在积累一种学习优势。
近年来另一个值得注意的发展是,大规模攻击开始遵循一种独特的模式。战争通常不再以直接导弹齐射开场。取而代之的是,对手的感知、通信和响应能力首先成为打击目标。因此,网络行动、电子战和天基干预已成为为动能打击铺平道路的开场阶段。
伊朗行动的第一阶段恰恰遵循了这一顺序。通过瘫痪通信网络、传感器系统和指挥控制要素,对手的态势感知能力被削弱,随后物理打击才开始。这种模式在乌克兰已观察到。这告诉我们,在当代战争中,主要目标已不再是简单的军事单位,而是对手的感知与决策能力。人工智能在此发挥着决定性作用:通过实时处理海量数据集,它能更快地揭示可以在哪些节点削弱对手、哪些网络必须首先被切断、哪些目标应被优先考虑。
换句话说,战争的开场棋已不仅仅是建立物理优势,而是要建立认知和数字优势。谁能更快地看见、更快地理解信息、更快地决策,谁就将在很大程度上决定战场上的动能优势。
针对伊朗的行动展示了人工智能已如何深度融入战争的各个阶段。在美国方面,主要运用的平台是由Palantir开发并整合了Anthropic技术的Maven智能系统。该系统将卫星图像、无人机数据流、信号情报、雷达数据、人工情报甚至来自民用基础设施的某些数据整合到一个数字池中,从而实现目标识别和优先级排序。此外,还能生成关于何种武器适合特定目标、如何构建打击的法律依据以及可能产生的次要影响等建议。
同样值得注意的是,在伊朗使用该系统并非“首次”。据悉,同一平台此前曾用于旨在抓捕委内瑞拉的尼古拉斯·马杜罗的行动。这确实表明,人工智能系统正在接受实战测试并逐步扩大规模,而伊朗行动是这一进程的延续。
这些系统最引人注目的后果是战争决策周期被极度压缩。曾经需要数百名分析师工作数天才能生成的目标清单,现在只需更少的人员、在更短的时间内就能完成。战争头24小时内打击了大约1000个目标的事实,正是这种加速的具体体现,这超出了单凭人力所能达到的极限。这不仅意味着打击更多目标,更意味着战争节奏已达到人脑无法独立维持的水平。
在以色列方面,诸如“福音”(Gospel)、“薰衣草”(Lavender)和“爸爸在哪?”(Where's Daddy?)等系统变得突出。此前在加沙广泛使用、错误率为10%的“福音”系统,主要辅助打击建筑物、设施和基础设施目标;而“薰衣草”系统则因其能基于数据模式将个人标记为潜在目标而受到关注。“爸爸在哪?”系统则能够追踪并在目标人物回到家的私密空间内实施打击。这些系统表明,战争现在不仅是在前线相遇的部队之间进行,更是通过被转化为数据的人的生命来进行。
使用这些系统的一个重要例证是对伊朗最高领袖阿里·哈梅内伊的刺杀。识别和打击目标的过程在极短的时间内完成,大约60秒。此次行动的实现,得益于对入侵的交通摄像头、信号情报和大数据流的同时人工智能处理。
然而,人工智能为战争带来的速度并未使其变得可靠或万无一失。相反,当速度与错误相结合时,后果可能更具破坏性。在伊朗战争中,一个最突出的例子是对米纳布一所学校的袭击。据评估,此次袭击基于过时且未更新的情报数据,导致数百名平民死亡。这里的问题不仅仅是击中了错误目标,还在于人工智能辅助系统可能将陈旧数据处理为反映当前现实的情况,从而产生致命后果。
另一个值得注意的案例是德黑兰的“警察公园”事件。有评估认为,一个公共公园可能因其名称含有“警察”一词而被列入目标清单,这说明了人工智能系统在把握上下文语境方面可能有多么脆弱。机器看到了这个词,但无法理解其含义。它选择了模式,但无法解读社会和空间背景。在战争中,这种语境盲点不是常规的技术错误,而是直接的致命风险。因此,我们需要自问:如果是由人来进行数据标注和处理,会犯同样的错误吗?
还有一个更深层的问题:人类的监督可能往往远不如宣称的那样有力。官方话语一直强调最终决定权总在人。然而在实践中,面对人工智能生成的目标清单和打击选项,人类操作员经常在极其有限的时间窗口内做出决定,例如每个目标只有10秒。这使人类从行使自主判断的独立决策者,降级为仅仅验证机器建议的角色。此外,人们也普遍观察到人类倾向于偏向人工智能系统的决定,从而更快地接受AI决策而无需太多分析,这在文献中也被称为“自动化偏见”。所有这些加起来,对现代战争构成了严重的伦理问题。
等待我们的未来
所有这些都引发了一个令人不安但关于未来的重要问题:人工智能在战争中扩散得越广,在国际层面上约束它是否会相应地变得越难?在很大程度上,是的。因为没有任何能带来战场优势的技术会被轻易或自愿地约束,尤其是当该技术能加速决策、扩大打击能力并提供相对于对手的明显优势时。
因此,人工智能在战争中使用得越广泛,全球治理的前景可能就越弱。各国可以同时保持“人类监督”的言论,而在实践中,则转向更深层次的自动化。这造成了一种人类仍在系统中心的假象,而实际上是算法架构在进行实际指挥。人类不再是决策的真正作者,反而开始扮演赋予决策合法性的门面角色。
战争的地理格局也在发生变化。伊朗对云基础设施和数据中心的打击表明,已不再仅仅是军事基地,数字基础设施和人工智能生态系统本身已成为战争的直接组成部分。数据中心、云系统和计算能力不再是冲突范围之外的技术要素,而是战略目标。这证实了未来的战争不仅将在陆地、海洋和空中进行,还将跨越服务器、网络和数据流。
基于所有这些讨论,根本问题不在于这种转型已经开始,而在于它将走多远,以及将在何种政治和伦理基础上进行。如果人工智能辅助的战争实践随着每一场新冲突而逐渐常态化,我们可能会发现自己面对的战争,是人类不再做出决定,而仅仅是为决定承担责任。到那时,战争的人道、法律和道德界限将不仅是被侵蚀,而且可能以不可逆转的方式被重新定义。
引文:Gloria Shkurti Özdemir. The Iran case and evolution of AI in battlefield operations. Apr 16, 2026. https://www.dailysabah.com/opinion/op-ed/the-iran-case-and-evolution-of-ai-in-battlefield-operations