人工智能在军事系统中的快速整合与部署引发了伦理辩论与争议。将人工智能整合进军事系统使得法律责任归属复杂化。在伊朗军事行动中平民的悲惨伤亡表明,对人工智能系统实施完全的监督与控制是极其困难的。

在委内瑞拉的“绝对决心”行动和伊朗的“史诗怒火”行动中展示的人工智能辅助机动,体现了美国战争部于2026年1月12日公布的“人工智能加速战略”的要素[1]。该条令将前沿人工智能(指最先进、大规模的基础人工智能模型,能够执行广泛任务,并常在特定认知领域达到或超越人类能力)整合进军事系统,旨在使美军成为“无可争议的人工智能赋能作战力量”。

该条令旨在从依赖人类的决策周期转向自主算法杀伤链。这种“人工智能优先”的方法通过七个旨在改变现代战争执行标准的针对性“领航项目”得以实现。这些举措包括:在集群系统中引入人工智能赋能能力的“蜂群熔炉”;支持从规划到杀伤链执行的作战管理与决策的“智能体网络”;允许进行战术模拟与集成的“终结者工厂”;以及将技术情报转化为动能能力的时间从数年缩短至数小时的“开放武库”。

“GenAI.mil”允许整个部门访问如XAI的Grok和谷歌的Gemini等人工智能生成模型;“后勤链接”自动化高威胁区域的预测性后勤与维持;“宙斯盾之盾”提供针对敌方电子与网络干扰的自主防御措施[2]。

最重要的是,该条令未在算法决策周期中包含社会或政治变量,从而仅优先考虑决策优势与杀伤力。通过国防部的Palantir平台——特别是“专家智能系统”和人工智能平台——部署Anthropic的Claude大语言模型,使得指挥官能够寻求作战协助、质疑数据集并获取即时战术指导以进行高效决策[3]。

“人工智能加速战略”在以色列最近的军事行动中找到了其作战概念验证,分析人士将其视为自动化战争的范例[4]。基于人工智能的决策支持系统以前人类分析师不可能达到的速度识别结构性目标。一名人类情报官员一年可能识别50个目标,而“福音”系统每天能生成100个“目标建议”,有效地充当了“目标工厂”[5]。

“绝对决心”行动

美国于2026年1月3日对委内瑞拉首都加拉加斯实施了“绝对决心”行动。这是一次多域军事打击行动,旨在以毒品恐怖主义指控抓捕委内瑞拉总统尼古拉斯·马杜罗及其配偶西莉亚·弗洛雷斯[6]。在此次行动中,美国政府严重依赖人工智能进行战略咨询、情报融合和战场空间预测。军事战略家使用人工智能处理海量数据集,执行多模型情报分析,绘制动能足迹、安全结构和协议图。RQ-170“哨兵”无人侦察机等低可观测平台被用于提供整个区域的实时遥测数据[7]。

Palantir的跟踪算法实现了持续遥测。它结合了来自国家安全局的信号情报和来自国家地理空间情报局的高分辨率卫星图像。此阶段最关键的部分是将Anthropic的生成式人工智能模型Claude整合进军事系统。它帮助分析了数千小时的波斯语和西班牙语音频截获内容,以识别委内瑞拉军事指挥系统内的裂痕、通信延迟和忠诚度[8]。战略家利用先进的人工智能模型运行各种选项,以及由复杂博弈论模型支持的地面场景。人工智能系统生成了可能的突破口和渗透向量,并模拟了潜在的网络致盲行动对电网的影响。

此次突袭行动是跨多域人工智能整合与同步的基准范例。该行动涉及从遍布整个西半球的20个不同地点发射的大约150个空中平台[9]。这需要流畅的时间协调,而人工智能路由系统提供了这一点。F-35和F-22等隐形战斗机,连同EA-18G“咆哮者”电子战飞机,共同淹没电磁频谱,致盲雷达系统。与此同时,美国网络司令部和太空司令部攻击了当地电网,导致完全停电并阻碍了防御通信[10]。

电网故障损坏了至少三个变电站,并展示了美国混合战略的效率。该战略无缝融合了进攻性网络行动与物理打击,这场战役耗费数月时间寻找网络目标,数天选择动能目标,而仅用一夜就将它们整合成一个完全成功的作战计划[11]。在这个算法保障的“屋顶”下,一支由第160特种作战航空团(空降)(亦称“夜行者”)、三角洲部队操作员和联邦调查局人质救援队组成的战术抓捕部队,渗透进Fuerte Tiuna军事系统以攻击目标。

“史诗怒火”行动

史诗怒火”行动于2026年2月28日凌晨1点15分发动,美国和以色列的打击目标包括伊斯兰革命卫队总部、弹道导弹发射场、一体化防空系统和海军基础设施[12]。在最初的24小时内,大约有1000个伊朗军事基础设施目标遭到打击,最终目标数量扩大至5500个[13]。

此次战役最显著的特点是人工智能工具实现的“决策压缩”,它使得高层领导人能够快速处理海量数据集并迅速做出高效决策。特别是美国中央司令部,通过Palantir Foundry平台整合的Claude 4 Opus模型,将大量战场数据检查和处理成快速、可操作的选项[14]。这一过程的机器速度帮助将需要数天人力且误差幅度较大的工作,缩减为仅需数秒且附带后果最小的工作。

为了成功对最高领袖实施“斩首”打击,美军通过人工智能处理了2.3拍字节的多层数据。这些数据包括1.2亿张卫星图像、日常生活模式和信号情报。要掌握这类数据并得出结果,至少需要100天时间和328名人类分析师[15]。

此外,人工智能的部署显著限制了人类在致命武力运用中的参与。在委内瑞拉行动中,人工智能主要在人类执行的抓捕行动的咨询阶段介入,而在伊朗的行动则严重依赖算法自主性,人类干预极少,仅限于执行最终的致命步骤。这也引发了关于“人在回路”方法以及这种结构将如何永远改变战争性质的辩论。

在“史诗怒火”行动中,美军还首次在战争中部署了“低成本无人作战攻击系统”。LUCAS系统是从伊朗“沙希德-136”自杀式无人机逆向工程而来,该无人机也被俄罗斯军队用于对抗乌克兰,代号为“天竺葵-2”。LUCAS系统每套成本约为3.5万美元,仅是美军惯用的传统精确制导弹药成本的一小部分。相比之下,一枚“爱国者”PAC-3拦截弹超过300万美元,而一枚“战斧”巡航导弹成本约为200万美元。因此,在提高效率的同时降低了军事系统的相关成本[16]。

LUCAS由SpektreWorks公司设计。它利用星链终端、人工智能赋能自主导航、卫星数据链和末端制导。对于在伊朗的行动,这些无人机由专门为应对伊朗在无人机战中的不对称能力而组建的“天蝎打击特遣队”从地面发射[17]。

LUCAS集群被系统地部署,以饱和伊朗的雷达覆盖范围,并通过施压防御系统制造“数字烟幕”,使得先进且昂贵的打击平台能够自由行动[18]。它们使用网状网络进行自主协同战术和动态目标捕获,迫使防空系统同时跟踪大量潜在目标。因此,该条令通过从根本上改变长期交战的物流可持续性和消耗计算,直接利用了昂贵军事硬件的脆弱性[19]。

关键挑战

  • 伦理与法律问题

人工智能在军事系统中的快速整合与部署引发了伦理辩论与争议,正如美军整合并依赖Anthropic的Claude人工智能模型所展现的那样[20]。

就在“史诗怒火”行动开始前数小时,Anthropic首席执行官达里奥·阿莫代拒绝了美国战争部长皮特·赫格塞斯提出的移除该公司对Claude模型部署的“红线”限制的要求。阿莫代要求达成一项不容谈判的协议,即其模型永远不会被用于大规模监控,或在没有任何人类监督的情况下被整合进武器系统[21]。他认为完全依赖这样的系统会将责任负担转移到软件上,并可能导致灾难性后果和人员伤亡。这种谨慎态度与更广泛的认识相符,即在大多数试运行中,人工智能在模拟战争游戏中建议使用核武器,突显了不受限制的机器逻辑固有的不稳定性[22]。

Anthropic明确拒绝五角大楼的要求,迫使特朗普总统发布行政命令,将该公司列入黑名单,并将其领导层标记为“激进左翼”。该命令进一步禁止所有联邦机构使用其任何产品。赫格塞斯部长进而正式将Anthropic指定为国家安全“供应链”威胁,这一分类通常给予敌对的外国实体[23]。

尽管公开关系破裂且政治上出现裂痕,但作战现实使得在不造成严重损害的情况下将Claude模型从军事系统中移除是不可能的。Claude模型在结构上已嵌入Palantir“专家”系统、联合全域指挥与控制网络以及更广泛的情报架构中[24]。因此,美国中央司令部开始使用被列入黑名单的人工智能来继续协调在伊朗的轰炸。这也为Anthropic的竞争对手OpenAI创造了机会窗口,后者迅速接替了Claude的角色,并签署了一份缺乏具体伦理条款的国防合同[25]。

将人工智能整合进军事系统使得法律责任归属复杂化。现行的国际人道法框架对于人工智能建议的、经人类“橡皮图章”式批准的错误目标存在模糊性。在这种情况下,刑事责任本质上不归属于任何人。目前没有硬性的执法机制来规范将人工智能引入致命性作战,从而在国际法理学中留下了一个重大空白。

  • 自动化偏见 “当人类操作员被机器生成的数据量和速度所淹没时,自动化偏见便会产生,导致他们在未经核实的情况下信任系统的输出。

史诗怒火”行动的执行速度表明,指挥官几乎没有时间审查和决定人工智能智能体建议的打击目标。在此类事件中,人类的监督与控制退化为表演性的‘橡皮图章’式批准,将致命行动的认知负担从人类转移到了机器上。

然而,这种转移的缺陷和后果是严重的。生成式人工智能模型存在‘幻觉’问题,即从错误来源生成数据,并且在部署到其训练范围之外的新颖、战争迷雾场景中时表现出较低的准确性。这种伦理困境和后果在行动第一天就很明显,当时一枚导弹击中了伊朗南部一所学校附近,造成165名平民伤亡,其中包括数名儿童[26]。这一事件突显了在关键军事行动中将人类核查视为理所当然的风险[27]。

  • 经济成本 一方面,引入LUCAS等低成本无人机系统通过创造有利的成本交换比,抑制了进攻性打击的成本。然而,仅“史诗怒火”行动的前100小时就消耗了37亿美元,其中35亿美元用于替换未列入预算的弹药。此外,PAC-3导弹、SM-6拦截弹和“战斧”巡航导弹等精密系统的快速消耗暴露了美国供应链的脆弱性。鉴于冲突的不对称性,美国不得不使用一枚价值300万美元的“爱国者”导弹去拦截一架价值3.5万美元的无人机[28]。

结论

人工智能的引入与整合已从根本上改变了军事行动的动态,将规划与决策周期从数月压缩至数分钟,用自主精确性取代了动能规模,并将致命决策的认知负担从人类转移到了机器。同样,引入LUCAS和“可负担规模”等低成本系统,标志着在昂贵传统平台极其脆弱的时代,确保后勤可持续性的必要演进。

然而,这些战术胜利掩盖了严重的战略、伦理和法律脆弱性。伊朗战役期间平民的悲惨伤亡表明,对人工智能系统实施完全的监督与控制是极其困难的。由于Anthropic与美国政府关系破裂而浮现的摩擦进一步表明,制定统一的、可执行的、包含更多人类参与的指导方针至关重要。

最后,经济消耗率以及盟友间日益增长的不满情绪表明,虽然人工智能可以在战场上取得巨大成果,但它同时也撕裂了全球秩序。能够垄断作战数据并拥有最先进神经网络的国家将主导全球安全环境,在一个不受限制的领域中运作,在那里决定结果和国际秩序未来的,是算法而非既定的战争法则。

参考文献

[1] Mostafa Ahmed, “Between Maduro and Khamenei: Has Artificial Intelligence Replaced Human Intelligence?”, AL Habtoor Research Centre, 3 March 2026.

[2] “Artificial Intelligence Strategy for the Department of War”, Secretary of War, 9 January 2026.

[3] “AI Integration in Operation Epic Fury and Cascading Effects”, The Soufan Center, 03 March 2026.

[4] Yuval Abraham, “Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, +972 Magazine, 3 April 2024; Harry Davies and Bethan McKernan, “Top Israeli spy chief exposes his true identity in online security lapse”, The Guardian, 5 April 2024.

[5] Bethan McKernan and Harry Davies, “The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets”, The Guardian, 3 April 2024.

[6] CK Smith, “Maduro captured during overnight U.S. strikes on Venezuela’s capital”, Salon, 3 January 2026.

[7] Joseph Trevithick, “Lockheed Confirms RQ-170 Sentinel Spy Drones Took Part In Maduro Capture Mission”, TheWarZone, 29 January 2026.

[8] Ryan et. al., “Imagery from Venezuela Shows a Surgical Strike, Not Shock and Awe”, CSIS, 9 January 2026.

[9] Bradley Peniston, “How ‘Absolute Resolve’ harnessed 150 aircraft and more to launch a regime change in Venezuela”, Defence One, 3 January 2026.

[10] Dr Louise Marie Hurel, “Layered Ambiguity: US Cyber Capabilities in the Raid to Extract Maduro from Venezuela”, RUSI, 14 January 2026.

[11] Cynthia Brumfield, “The Caracas operation suggests cyber was part of the plan – just not the whole operation”, CyberScoop, 19 February 2026.

[12] Frederic Lemieux, “Algorithmic Warfare in the Iran Conflict: Operation Epic Fury and Dawn of the AI Battlefield”, Homeland Security, 6 March 2026.

[13] Jon Harper, “Centcom commander touts use of AI in fight against Iran during Operation Epic Fury”, DefenseScoop, 11 March 2026.

[14] Parmy Olson and Bloomberg Opinion, “How Anthropic’s Claude AI Helped US Bomb Iran”, NDTV, 4 March 2026.

[15] Larisa Brown, “How AI helps 20 US troops do the work of 2,000 in Iran war”, The Times, 3 March 2026.

[16] “U.S. Conducts First Combat Use of LUCAS Kamikaze Drone During Operation Epic Fury Against Iran”, TenderNews International, 2026.

[17] Howard Altman, “U.S. Military Has Used Long-Range Kamikaze Drones In Combat For The First Time”, TWZ, 28 February 2026.

[18] Brandi Vincent, “After first combat appearance, LUCAS drones ‘remain ready’ for future Epic Fury strikes against Iran”, Defensescoop, 2 March 2026.

[19] “Iran’s Shahed Shock: Pentagon Forced Into Drone Rethink as Low-Cost UAV Warfare Exposes U.S. Missile Stockpile Vulnerability”, Defence Security Asia, 14 March 2026.

[20] Ryan Tantalo, “When AI Ethics Collide with National Security: Anthropic Challenges Pentagon Blacklisting”, Law Review, 19 March 2026.

[21] “Anthropic CEO Dario Amodei to Pentagon: This is the ‘Red Line’, will not accept these two demands under any circumstance – “, The Times of India, 28 February 2026.

[22] “King’s study finds AI chose nuclear signalling in 95% of simulated crises”, Kings College London, 27 February 2026.

[23] Justin Hendrix, “A Timeline of the Anthropic-Pentagon Dispute”, Tech Policy Press, 19 March 2026.

[24] Parmy Olson, “Claude AI helped bomb Iran. But how exactly?”, The Economic Times, 4 March 2026.

[25] Harry Booth, “The Most Disruptive Company in the World”, Time, 11 March 2026.

[26] Tess McClure, “Death toll from school bombing in southern Iran reportedly rises to 165”, The Guardian, 1 March 2026.

[27] “Pentagon assessment finds U.S. at fault for strike on school in Iran”, Here and Now, 12 March 2026.

[28] Jakob, “LUCAS: US $35,000 Kamikaze Drone Based on Reverse-Engineered Iranian Shahed-136”, TrendingTopics, 20 March 2026.

成为VIP会员查看完整内容
5

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
人工智能赋能作战行动:以俄乌战争为例
专知会员服务
33+阅读 · 2025年12月6日
《人工智能在军事行动作战规划过程中的应用可能性》
专知会员服务
34+阅读 · 2025年10月12日
万字长文 | 人工智能战争:军事与国防的下一次革命
专知会员服务
38+阅读 · 2025年9月14日
中文版 | 重新定义数字时代冲突:人工智能的角色
专知会员服务
17+阅读 · 2025年5月3日
《人工智能与战争决策:未来的风险与机遇》
专知会员服务
33+阅读 · 2024年9月24日
军事决策中的人工智能:支持人类,而非取代人类
专知会员服务
63+阅读 · 2024年9月10日
从规划到执行:人工智能在军事行动中的作用
专知会员服务
110+阅读 · 2023年9月22日
人工智能和军备控制,80页pdf
专知
15+阅读 · 2022年11月2日
国家自然科学基金
333+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
50+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
Arxiv
0+阅读 · 3月17日
Arxiv
0+阅读 · 2月11日
VIP会员
最新内容
美军夺取伊朗离岸岛屿分析:高风险,低收益
专知会员服务
7+阅读 · 4月10日
将生成式人工智能整合进军事战术决策中
专知会员服务
9+阅读 · 4月10日
美国2026最新发布《人工智能国家政策框架》
专知会员服务
7+阅读 · 4月10日
大模型错因诊断分析
专知会员服务
5+阅读 · 4月9日
视频生成基础模型进展
专知会员服务
7+阅读 · 4月9日
相关资讯
人工智能和军备控制,80页pdf
专知
15+阅读 · 2022年11月2日
相关基金
国家自然科学基金
333+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
50+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员