商业人工智能在实战中的应用已绕过理论争议,直接进入执行阶段。“史诗狂怒”行动标志着空袭作战方式的转变,美军自2026年2月28日起的24小时内,打击了伊朗境内1000个不同目标。实现如此密集的打击,需要以人类分析员无法单独完成的速度处理情报。处理这些数据的基础设施依赖于对科技行业语言模型和国防承包软件的仓促整合。部署速度远超操作护栏的建立速度,导致大规模作战行动伴随严重的平民伤亡后果。
软件开发者和大型语言模型的日常使用者持续记录了当前人工智能架构的一个显著局限:这些系统在空间推理和自然地理方面存在根本性困难。在将情报数据转换为物理坐标时,大型语言模型经常生成看似确定但完全虚构的位置。普通用户查询具体街道地址时,常常收到看似合理但实际不存在的地图标注。在战争背景下,依赖容易产生此类特定地理幻觉的系统会造成灾难性的作战漏洞。
为减轻这种特定的故障模式,技术专家认为,作战人工智能的标准操作程序不能是简单的生成到执行流水线。强制性的技术解决方案需要严格、标准化的“人在环内”审查。系统操作员不能仅仅扫一眼人工智能生成的坐标并为了保持队列进度而批准。有效的护栏要求分析人员在指派无人机前,根据非人工智能的次要情报来源,独立验证生成的目标。
将人工智能的输出视为原材料而非最终产品,是应对空间幻觉唯一被证实有效的方法。美国中央司令部司令布拉德·库珀曾公开表示,人工智能只处理数据,而人类保留最终打击决定权。技术观察人士迅速指出,如果人类指挥官在巨大的时间压力下操作,且缺乏工具来快速交叉验证人工智能的逻辑,这种区分实际上毫无意义。当算法错误地将民用基础设施识别为武器库时,审查数据的人员需要明确的技术限制来阻止立即授权。正是缺乏这些硬性的软件限制,导致当前部署方法失效。
2月28日空袭的巨大规模,揭示了五角大楼对算法瞄准的依赖。在24小时内打击1000个目标,排除了对每一个攻击载荷进行深入、周密的人工审议的可能性。此次行动的主要投送平台包括MQ-9“死神”和“赫尔墨斯”900无人机。这些无人驾驶飞行器在敌对空域徘徊,等待从指挥中心直接推送的坐标。
此情报机构的核心是Palantir公司的Maven智能系统。该平台已从基础的计算机视觉和目标识别,演变为一个大规模的情报融合网络。近期,军方将Anthropic公司的Claude模型悄然整合进Maven系统。此整合旨在接收非结构化的战场报告、无人机视频流和信号情报,快速对伊朗和委内瑞拉的目标进行优先级排序。系统识别潜在威胁,评估其即时战术价值,并将建议提供给无人机操作员。美军从“沙漠风暴”行动中使用基础电子表格和简易算法,发展到如今将商业级对话和分析模型直接部署到杀伤链中。
Anthropic公司Claude模型的部署,揭示了当前国防政策内部一个奇特的矛盾。就在“史诗狂怒”行动首批打击发起前一周,国防部长皮特·赫格塞斯将Anthropic公司标记为“供应链威胁”,并着手取消与该公司的国防合同。然而,战场实况却讲述了一个完全不同的故事。军方继续将Claude作为其瞄准网络的认知引擎使用。华盛顿公开的政治姿态与中央司令部对数据处理效率的迫切需求之间的脱节,凸显出军事技术采购监管已变得何等支离破碎。地面指挥官正在使用任何能给予他们即时优势的软件,无论其官方行政地位如何。
当一次空袭摧毁一所伊朗女子学校并导致约160名儿童死亡时,“史诗狂怒”行动备受诟病。随着事件后续展开,公众讨论迅速转向瞄准流程的机制。观察人士、软件工程师和公共倡导者强烈批评任何试图将平民死亡归咎于“计算机故障”或“人工智能错误”的说法。
将平民死亡归咎于大型语言模型,成了一种为人类指挥官和软件开发者开脱责任的便利机制。技术界强调,训练模型时使用有缺陷参数的开发者、销售缺乏故障保护机制的系统的承包商,以及授权未经核实打击行动的军方高管,必须承担全部责任。使用机器处理瞄准数据,并不能分散扣动扳机者的法律和道德责任。公众共识认为,导致无差别死亡的、不受监管的人工智能作战使用,并非软件错误,而是战争罪行。
军事历史学家和自动化专家指出一个有充分记录的心理现象,即自动化偏见。当人类被要求监控复杂系统时,他们会迅速学会信任机器的读数而非自己的判断,尤其是在压力之下。如果计算机显示一个目标是敌对的,人类操作员几乎总是会同意。
对于自动化偏见导致的致命后果,有明确的历史先例。1988年,美国海军“文森斯”号巡洋舰上的操作员信任了“宙斯盾”作战系统模糊的数据分析,导致伊朗航空655号航班被击落,290名平民丧生。这起事件源于人类信任自动化情报流程而未充分核实基础数据。当今的大型语言模型比90年代末的数据库复杂且快速得多,这意味着自动化偏见的可能性呈指数级放大。当系统在数秒内运行时,人类打断一个有缺陷的自动化假设的窗口实际上已消失。
不断增加的平民伤亡已引发国际和国内立法者的立即反弹。美国众议员吉尔·托库达和参议员艾丽莎·斯洛特金公开谴责对这些工具的盲目部署,要求对人工智能在伊朗冲突中的使用方式进行公正审查。核心的立法要求很简单:建立一个独立的监督机构,能够在算法获准用于实战前对其进行分析。
国际已发表声明警告,美国对算法战争的依赖从根本上破坏了人类问责制,并侵蚀了国际伦理边界。
建立法规需要迫使科技公司为其模型在战斗场景中的表现承担法律责任。当前的安排允许科技公司在系统将学校标记为导弹阵地时,一边收取国防支票,一边躲在“用户错误”的辩护之后。为了确保快速情报分类的战术优势,军方必须摒弃那种认为人类在屏幕上点击“批准”即构成实际监督的幻想。如果军方依赖机器来定义现实,那么人类就不再做出决定。他们仅仅是充当一行代码的行政中间人。
什么是“史诗狂怒”行动?
“史诗狂怒”行动是美国军方于2026年2月下旬发起的一场针对伊朗目标的大规模空袭战役。该攻势利用先进的数据处理技术,在行动开始后的24小时内对1000个独立目标实施了打击。
美军人工智能瞄准系统如何处理情报?
这些平台接收大量原始数据,包括无人机视频流、信号截获和战场报告,以快速定位潜在目标。随后,软件根据战术优先级对这些位置进行排序,并将坐标推送给无人机操作员以供最终批准。
为什么人工智能幻觉在军事瞄准中很危险?
大型语言模型经常虚构物理坐标和地理现实,同时以极高的置信度呈现信息。如果操作员未经独立核实就接受这种幻觉地理信息,军方将面临轰炸民用基础设施的风险。
Palantir Maven系统在这些打击中扮演什么角色?
Maven系统是主要的的情报融合网络,负责对战场数据进行分类和地图化。通过将Anthropic的Claude等模型集成到Maven中,指挥官可以快速将非结构化的原始情报转化为可执行的无人机打击坐标。
为什么美国国防部将Anthropic标记为供应链威胁?
国防部长皮特·赫格塞斯近期将Anthropic指定为安全风险,并以未明确的供应链担忧为由,着手取消其国防合同。尽管存在此项行政禁令,军方仍在战斗行动中积极使用Anthropic的软件。