这款同样能帮助起草营销邮件或快速晚餐食谱的人工智能模型,已被用于攻击伊朗。据《华尔街日报》报道,美国中央司令部在对该国实施打击期间,使用了Anthropic公司的克劳德AI进行“情报评估、目标识别和模拟作战想定”。

就在作战数小时前,美国总统唐纳德·特朗普曾因与该公司发生争议,下令联邦机构停止使用克劳德。但该工具已深度整合进五角大楼的系统中,需要数月时间才能剥离并转向一个更合规的竞争对手。在今年一月导致尼古拉斯·马杜罗被捕的行动中也使用了它

但在实践中,“情报评估”和“目标识别”意味着什么?是克劳德在标记打击地点,还是在做伤亡评估?无人披露这一点,而且令人担忧的是,也无人有此义务。

人工智能长期以来一直用于战争,如分析卫星图像、检测网络威胁和引导导弹防御系统。但如今,聊天机器人——数十亿人用于写邮件等日常工作的同一种底层技术——正在被用于战场。

去年11月,Anthropic公司与数据分析公司帕兰提尔科技公司(为五角大楼承担大量工作)合作,将其大语言模型克劳德转变为军方决策支持系统内的推理引擎

随后,据彭博社报道,Anthropic公司于1月向五角大楼提交了一份1亿美元的提案,旨在开发语音控制的自主无人机蜂群技术。该公司的推介是:使用克劳德将指挥官意图转化为数字指令,以协调无人机机队

其竞标被拒绝了,但该竞赛要求的能力远不止于总结情报报告(可能认为这是聊天机器人的工作)。这份合同旨在为可能致命的无人机蜂群开发“目标相关感知与共享”以及“从发射到终结”的能力。

值得注意的是,所有这一切都发生在监管真空之中,并且使用的是已知会出错的技术。大语言模型的“幻觉”源于其训练过程,当时它们因竭力给出答案而非承认不确定而获得奖励。一些科学家表示,人工智能虚构信息的持续性问题可能永远无法解决。

这并非不可靠的人工智能系统首次被用于战争。“薰衣草”是一个用于帮助识别与加沙哈马斯有关联的军事目标的人工智能驱动数据库。它并非大语言模型,而是通过分析海量监控数据(如社会关系和位置历史)来为每个人分配1到100的分数。当某人的分数超过特定阈值时,“薰衣草”会将其标记为军事目标

问题是,根据以巴媒体+972发表的调查报告,“薰衣草”有10%的时间是错的。牛津互联网研究所数字伦理与防务技术教授玛丽亚罗萨里娅·塔代奥告诉我:“大约有3600人被错误地锁定为目标。”

伦敦玛丽女王大学政治理论教授、《死亡机器:暴力技术伦理》作者埃尔克·施瓦茨指出:“在这些系统中存在如此难以置信的漏洞和极端的不可靠性……对于战争这样动态、敏感且关乎人类的事务。”

施瓦茨指出,人工智能在战争中常被用于加速进程,而这可能导致不想要的结果。决策速度更快、规模更大,而人类的审查却更少。她说,过去十五年来,人工智能在军事上的应用变得更加不透明。

甚至在用于战争之前,保密性就已内置于人工智能实验室的运作方式中。这些公司拒绝披露其模型基于何种数据进行训练,或其系统如何得出结论。

当然,军事行动常常需要保密以保护作战人员并使敌人无法察觉。但国防领域受到国际人道法和武器测试标准的严格监管,理论上也应涵盖人工智能的使用。然而,此类标准要么缺失,要么严重不足。

塔代奥指出,《日内瓦公约》第36条要求新武器系统在部署前必须经过测试,但一个能从环境中学习的人工智能系统,每次更新都变成了一个新系统。这使得该规则几乎无法适用。

在理想情况下,像美国这样的政府会披露这些系统在战场上的使用方式,而且有先例可循。美国人在9/11后开始使用武装无人机,并在巴拉克·奥巴马政府时期扩大了其使用,但一度拒绝承认此类计划的存在。

经过近15年的文件泄露、媒体的持续压力和美国公民自由联盟的诉讼,奥巴马白宫最终在2016年公布了无人机袭击的伤亡数字。这些数字被普遍认为被低估了,但它们首次使公众、国会和媒体能够追究政府的责任。

对人工智能的监管将更加困难,需要公众和立法机构施加更大压力,才能迫使不情愿的特朗普政府建立类似的报告框架。

施瓦茨认为,目标并非精确披露克劳德在“史诗之怒”这类行动中是如何使用的,而是公布大致框架。尤其重要的是,在出现问题时予以披露。

当前关于Anthropic公司与五角大楼争执的公开辩论——涉及对美国民众的大规模监视或制造完全自主武器时,人工智能的合法性与伦理界限——忽略了一个更大的问题,即该技术已在战争中使用,却缺乏透明度。对于这种易出错的新生且未经充分测试的系统,透明度至关重要。塔代奥说:“作为一个社会,我们尚未决定是否接受由一台机器来决定一个人的生死。”

在人工智能在战争中变得如此常规化以至于无人再质疑之前,推动这种透明度至关重要。否则,可能会发现自己要等到灾难性的错误发生,并在损害造成之后才来强制推行透明度。

成为VIP会员查看完整内容
6

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
美军在对伊行动中继续依赖Claude AI
专知会员服务
16+阅读 · 3月1日
美国押注AI智能体以重塑军事决策
专知会员服务
29+阅读 · 1月22日
中文版2500字 | 人工智能如何塑造伊朗-以色列12日战争
专知会员服务
20+阅读 · 2025年6月30日
中文版 | 美军新型生成式AI能解析战争但不理解战争
专知会员服务
26+阅读 · 2025年4月17日
以色列的人工智能战争机器
专知会员服务
23+阅读 · 2025年1月27日
俄乌战争与加以冲突:人工智能走向战场
专知会员服务
138+阅读 · 2023年11月27日
【智能军工】算法战:牵引美军人工智能军事化应用
产业智能官
23+阅读 · 2017年11月29日
国家自然科学基金
333+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
50+阅读 · 2013年12月31日
VIP会员
相关VIP内容
美军在对伊行动中继续依赖Claude AI
专知会员服务
16+阅读 · 3月1日
美国押注AI智能体以重塑军事决策
专知会员服务
29+阅读 · 1月22日
中文版2500字 | 人工智能如何塑造伊朗-以色列12日战争
专知会员服务
20+阅读 · 2025年6月30日
中文版 | 美军新型生成式AI能解析战争但不理解战争
专知会员服务
26+阅读 · 2025年4月17日
以色列的人工智能战争机器
专知会员服务
23+阅读 · 2025年1月27日
俄乌战争与加以冲突:人工智能走向战场
专知会员服务
138+阅读 · 2023年11月27日
相关资讯
【智能军工】算法战:牵引美军人工智能军事化应用
产业智能官
23+阅读 · 2017年11月29日
相关基金
国家自然科学基金
333+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
50+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员