以色列正在其加沙和伊朗的战争中使用“薰衣草”和“福音”等人工智能系统,以识别疑似武装分子和空袭目标。
特朗普政府上周决定弃用人工智能公司Anthropic,转而支持OpenAI,并贬低Anthropic为由“狂热分子”经营的激进“觉醒公司”,反映了伦理与军事优先权之间的深度冲突。Anthropic拒绝放松其克劳德模型的安全护栏,特别是针对大规模监视和自主武器的限制。然而,五角大楼希望从任何此类道德约束中获得更广泛的行动自由,当Anthropic坚持立场时,官员们将该司列为供应链风险并转向他方。相比之下,Anthropic的竞争对手OpenAI同意与国防部合作,在提供保障的同时接受了伙伴关系。该公司因此获得了这份合同。
这一典型的“特朗普式插曲”将人工智能融入战争的竞赛推向前台,而这一点在美国的亲密伙伴以色列身上体现得最为明显。在过去的战争中,行动节奏受限于人力,例如分析员筛选情报、军官讨论目标、飞行员等待坐标。如今,在以色列对加沙和伊朗的军事行动中,大部分的审议工作正日益由机器解决。曾经与推荐引擎和聊天机器人相关联的人工智能,现已嵌入战争的决策机器中,加沙和伊朗都已成为迄今为止算法战争最具影响意义的试验场。这引发了关于问责、合法性及冲突未来的紧迫问题。
这一变革的核心是以色列军方及其精锐情报单位8200部队开发的人工智能驱动目标识别系统。这些工具摄入海量监视数据,并将其转化为致命打击建议。该技术承诺了速度和效率,但批评者认为,它也使得暴力的规模和节奏达到了人类监督难以匹配的程度。报道最广泛的系统是“薰衣草”和“福音”。它们共同构成一个将人员和地点识别为军事目标的数字架构。
尽管以色列的政策是保密细节,但调查报告和专家分析表明,“薰衣草”是一个人工智能驱动的数据库,旨在标记疑似与哈马斯或伊朗伊斯兰革命卫队等武装团体有关联的个人。在加沙战争的某个阶段,据报道该系统列出了多达37000名巴勒斯坦男子作为潜在目标。该系统通过分析数据中的模式运作。一旦某人被算法归类为疑似武装分子,其名字可能会被传递至目标识别链条,以实施潜在的暗杀或空袭。理论上,人类分析员仍然保持“在环”。然而,前情报官员描述了这样一个过程:分析员通常极快地批准人工智能生成的目标,有时审查时间仅有数秒。
如果说“薰衣草”识别人员,那么“福音”则识别建筑物。该系统扫描监视数据,以探测据信藏有武装分子、武器库或指挥中心的建筑。然后,它向人类操作员推荐轰炸目标,从而极大地增加了潜在目标数量。人类分析员过去可能数月生成几十个目标,而人工智能系统能在数天内生成数百个,其结果是目标识别过程的急剧加速。军事领导人公开拥护这一转变,将人工智能描述为克服长期作战制约的一种方式。随着算法工具大规模生成目标列表,这一瓶颈消失了。批评者认为,这种转变对平民产生了深远影响,因为人工智能系统依赖的是统计推断,而非确定性。即使在内部评估中报告准确率很高,但当成千上万的人被标记时,误差幅度就变得显著。如果目标列表上出现数千个名字,10%的错误率可能意味着数百或数千名被错误识别的人员被杀害。
人权组织和法律学者警告,算法目标识别的速度和规模有可能破坏国际人道法的核心原则,包括区分战斗人员与平民的义务以及避免不成比例攻击的义务。当人工智能与作战政策相互作用时,伦理辩论变得更加复杂。对此战争的调查表明,以色列军方在锁定特定武装分子时,设定了平民伤亡的预先授权阈值,意味着根据目标的级别,一定数量的平民死亡可被视为可接受的附带损害。批评者认为,当此类政策与自动化目标生成相结合时,其结果可能类似于一位分析员所描述的“工业化”目标识别。算法生成列表,分析员快速验证,随后实施打击。战争的节奏由机器设定。
以色列及其支持者反驳关于人工智能移除人类判断的描述。以色列军方坚称其系统是决策支持工具,而非自主武器。人类分析员审查输出结果,指挥官最终决定是否授权打击。支持者认为,算法系统实际上可能通过提高精度并使军方能够分析远超人类单独处理能力的情报,来减少平民伤亡。这一论点呼应了技术先进军队中出现的更广泛叙事,在这些国家,防务规划者日益将人工智能视为驾驭数据饱和战场的关键。现代监视系统从无人机、卫星、电子截获和传感器产生海量信息流,这些信息实际上无法仅由人类团队分析。在此背景下,防务分析人士常将以色列在加沙的战场视为未来战争的预演,其中人工智能驱动的目标识别系统有望将数据流融合为实时情报,从而实现军方所称的、以分钟而非小时计的“从传感器到射手”的闭环。
参考来源:sundayguardian