引言/背景:始于2026年2月28日的美国-以色列联合对伊朗军事攻势——“史诗怒火行动”/“咆哮雄狮行动”——产生了前所未有的作战节奏:最初十二小时内近900次打击。实现这一点的并不仅仅是优势火力,更是人工智能深度融入杀伤链的每个阶段。因此,伊朗冲突已成为首场大规模武装对抗,其中人工智能并非作为辅助分析工具,而是作为军事决策的核心作战组成部分,将目标定位周期从数天压缩至数分钟,并系统性地边缘化了实质性的人类审议。
方法:本文采用一个批判性分析框架,借鉴了基于开源情报对“史诗怒火行动”的调查报道、关于人工智能赋能军事目标定位的学术文献、先前冲突中人工智能部署的记载、关于伊朗-以色列对抗的新兴学术研究、国际人道法,以及对领先人工智能开发商与防务机构之间公司治理紧张关系的分析。
结果:伊朗冲突展现了三个相互关联的现象:首先,人工智能驱动的决策压缩将多日的规划周期缩短至数小时;其次,人类监督在结构上转变为一种表演性的“橡皮图章”——仅有形式授权而无实质审议内容;第三,在竞争性军事采购压力下,公司人工智能伦理的崩溃,这一点在2026年2月28日同时发生的事件中体现得最为明显:Anthropic公司因拒绝移除对自主武器的限制而被五角大楼列入黑名单,而其模型当时已嵌入对伊朗的打击行动中,同时OpenAI立即接手了其防务合同。
结论:当前治理框架在结构上不足以应对人工智能辅助目标识别所造成的问责缺口。伊朗冲突使得制定具有约束力的国际文书变得迫切,这些文书应将有意义的人类控制可操作化,不仅作为一个名义上的指定,更应作为一个可执行的行为标准,并以用于致命武力决策的人工智能决策支持系统的最低审议时间要求和技术透明度授权为基础。
关键词:人工智能;伊朗冲突;“史诗怒火”行动;自主武器;决策压缩;杀伤链;橡皮图章式批准;人类监督;国际人道法;算法战争;Anthropic;“专家计划”