一家AI安全公司的技术如何最终被用于选定在伊朗的轰炸目标——包括那场造成150名女学生死亡的袭击——以及随之而来的僵局。

2018年,大约3100名谷歌员工签署了一封信,要求公司停止为战争开发人工智能。十几名工程师辞职以示抗议。谷歌让步了,退出了一个名为“专家计划”(Project Maven)的五角大楼项目,该项目使用机器学习分析无人机镜头。这理应是一条底线:科技行业不会构建自动化杀戮的机器。

八年后的今天,同一个项目——如今已大规模扩展、更名,并由世界上最先进的AI模型之一驱动——在一天之内帮助美军选定了在伊朗的超过1000个轰炸目标。

进行选择的人工智能?是由Anthropic公司构建的Claude——这家公司成立的初衷是确保AI安全。

Maven到底是什么?

要理解如何走到这一步,需要明白Maven到底是什么——因为这个名字在不同时期意味着不同的东西。

“专家计划”始于2017年4月,当时国防部副部长罗伯特·O·沃克签署了一份备忘录,创建了“算法战跨职能小组”。最初的设想很谦逊:利用计算机视觉AI帮助军事分析师梳理从伊拉克和叙利亚传回的海量无人机监控画面。国防部当时被视频数据淹没,需要机器来标记感兴趣的物体——车辆、建筑物、人员——以便人类能够专注于重要事务。

初始范围几乎显得古朴。Maven的预算是7000万美元。正如该项目的第一任负责人德鲁·库科尔上校所描述,算法大约是嵌入在更大软件容器中的75行Python代码。它们被训练用于识别无人机视频流中的38类物体。在2017年7月五角大楼的一次会议上,库科尔阐述了愿景:“人和计算机将协同工作,以提高武器系统检测物体的能力。”

谷歌赢得了初始合同,价值900万至1500万美元,有潜力增长到每年2.5亿美元。其工程师构建了能够识别无人机视频流中物体的图像识别系统。理论上,这是一个分类工具。但抗议的员工看穿了这种抽象:对无人机镜头中的物体进行分类,与告诉一枚“地狱火”导弹飞向何处,仅一步之遥。

到2018年初,谷歌参与Maven项目的消息在内部传开。数千人签署了请愿书。大约十几人辞职。2018年6月,谷歌云首席执行官黛安·格林宣布公司不会续签合同。谷歌还发布了新的人工智能原则,禁止从事“违反国际公认规范”的武器和监控项目。

彼得·蒂尔勃然大怒。这位PayPal联合创始人和Palantir董事长称谷歌的决定“近乎叛国”,并指出该公司一边在推进为中国量身打造的审查搜索引擎“蜻蜓计划”,一边却抛弃了美国军方。他公开呼吁中央情报局调查谷歌。

谷歌的退出造成了真空。这个真空没有空置太久。

Palantir登场:代号Tron

当谷歌退出时,合同转移了——先是部分,然后是全部——转移到了Palantir Technologies,这是蒂尔(Thiel)于2003年通过In-Q-Tel利用中情局种子资金共同创立的数据分析公司。Palantir自成立以来一直为中情局、国家安全局和美国军方构建监控和情报软件。在内部,Maven项目的代号是“创(Tron)”,源自1982年的电影。

当谷歌为军事AI的伦理问题而纠结时,Palantir的首席执行官亚历克斯·卡普则认为,为军队服务是科技行业的爱国责任。同年,当公司因其与移民和海关执法局的合作而面临内部阻力时,卡普也保留了ICE的合同。

Palantir不仅仅是在谷歌止步的地方接续。它将Maven变成了一个庞大得多的东西。

从无人机镜头到战争机器

Palantir带来了谷歌所没有的东西:一个专为融合机密数据而构建的架构。该公司的平台——Gotham、Foundry,以及后来的AI平台——已经设计用于从数十个来源摄取数据,通过Palantir专有的“本体论”映射关系,并向分析人员和决策者呈现可操作的情报。一位前国防官员告诉《快公司》,Palantir基本上“解决了五角大楼的数据湖问题”。另一位说得更直白:“一切都在Palantir上运行。他们在这个领域是1000磅重的大猩猩。”

从2020年开始,第18空降军——陆军拥有9万名士兵的快速反应部队——通过一系列名为“猩红之龙”的演习,成为Maven的主要试验场。在布拉格堡(现自由堡)的首次演习创造了历史:一个AI系统扫描卫星图像,识别出一辆退役坦克,一名人类操作员确认目标,系统随即指示一辆M142“海马斯”高机动火箭炮开火。这是美国陆军历史上首次由AI协助完成的炮击。

乔治城大学对第18空降军工作的研究发现了一个值得注意的地方:使用Maven,一个大约20人的目标选定小组,其产出与“伊拉克自由行动”期间使用的时效性目标选定小组相当——而后者需要超过2000名人员。一位高级目标选定军官估计,使用Maven他每小时可以处理80个目标,而没有它只能处理30个。

但准确性是另一回事。人类分析员的准确率达到84%。Maven大约只有60%,有时会把卡车误认为树。当我们谈到伊朗时,请记住这个数字。

到2024年,“专家计划”已演变为Maven智能系统——Palantir的旗舰军事AI平台。最初的计算机视觉工具现在是一个全频谱指挥控制系统,现代战争的中枢神经系统。

Maven智能系统目前的功能

  • 融合来自所有来源的情报——卫星图像、信号情报、监控视频、人工情报报告、开源数据——整合成单一的作战态势图。
  • 近实时地识别并优先处理目标。
  • 生成打击目标的GPS坐标。
  • 为每个目标推荐使用哪种武器系统。
  • 根据武装冲突法,为打击生成自动化的法律理由。
  • 支持联合全域指挥与控制——五角大楼关于连接空、陆、海、天、网每个传感器和射手的构想。

原始情报输入。可操作的打击方案输出。曾经需要情报分析师和目标选定官花费数周的工作,Maven将其压缩到数小时或数分钟。

而这个系统的核心——正如国防官员所称的“认知引擎”——是Anthropic的大型语言模型Claude。

Palantir与Anthropic的结合

Palantir与Anthropic的合作关系于2024年底宣布。Anthropic成为第一家将其模型部署在美国政府机密网络上的前沿AI公司——特别是AWS的“影响级别6”机密云基础设施上——使Claude能够访问美国一些最敏感的情报数据。2025年6月,Anthropic推出了专为机密环境构建的版本Claude Gov。

这次集成将Maven从一个计算机视觉加数据融合平台转变为全新的东西。Claude现在可以总结传入的情报、提议目标、管理后勤,并处理纯计算机视觉系统无法触及的非结构化数据——报告、通讯、分析员笔记。

到2025年7月,五角大楼签署了一份价值2亿美元、为期两年的原型协议,以“构建推进美国国家安全的前沿AI能力原型”。到2025年5月,五角大楼对Maven的表现非常满意,将Palantir的总体合同上限提高到2029年近13亿美元——高于2024年5月签署的最初4.8亿美元的五年期合同。用户基数翻了两番:到2025年中,活跃军事用户超过2万人。

Maven也不再局限于美国。2025年4月,北约与Palantir签署了关于Maven智能系统北约版的协议,官员们将其描述为赋予指挥官“电子游戏般”的能力来监督战斗。海军陆战队于2025年9月单独签署协议。海军开始将Maven架构集成到其自己的ShipOS平台中——这是一个4.48亿美元的项目,将Maven的逻辑扩展到海军行动。国家地理空间情报局局长宣布,到2026年6月,Maven将开始向作战指挥官传输“100%机器生成”的情报。

Palantir的股价飙升——公司市值达到3500亿美元。亚历克斯·卡普全力拥抱这一刻。在a16z峰会上,卡普宣称:“认为战场上应该减少技术的想法是疯狂的。问题不在于AI是否会被用于战争。而在于西方是否会首先使用它。”他认为,硅谷对军事合同的谨慎不仅是天真的——而且是危险的。

大约在这个时候,丹妮拉·阿莫代在社交媒体上发声,谴责明尼苏达州的ICE,并就他们与Palantir的合作关系引发了一场辩论。我公开支持了这种伙伴关系,因为我宁愿Anthropic在那里提出反对,而不是缺席:

这是一种天真的看法。如果讲伦理的AI实验室抵制公共部门,公共部门并不会停止使用AI——他们只会开始使用不讲伦理的AI。你的哲学恰恰导致了你声称反对的结果:一个拥有强大工具且零护栏的政府。如果你想谈论说了一大堆空话,你为什么不试着谈谈具体细节?我对解决问题感兴趣,而不仅仅是在这件事上标榜道德。

但重要的是:Palantir的Maven智能系统不仅仅是在使用Claude。整个系统是围绕Claude构建的。提示词、工作流程、分析管道——它们是专门为Anthropic的模型设计的。Claude不是一个插件。它是基础。

这个区别很快就变得至关重要。

转变的怀疑者

在伊朗之前,是喀布尔。

乔伊·坦普尔是一名资深目标选定官,参加过五次战斗部署,最初他甚至拒绝观看Maven的演示。然后到了2021年8月,以及从阿富汗混乱的撤离。坦普尔首次获准使用Maven智能系统。在一个屏幕上,他可以同时跟踪飞机动向、监控后勤、监视威胁,并查看克里斯·多纳休少将等关键人员的位置。该系统当时正在从最终会增长到179个不同数据源中提取信息。

“它向我展示了什么是可能的,”坦普尔后来说。

怀疑者们不断转变。当俄罗斯于2022年2月入侵乌克兰时,第18空降军部署到德国,指挥中心各处的屏幕上都开着Maven。通过Maven处理的美国卫星情报被用来向乌克兰部队提供俄罗斯装备的位置。到2024年,该系统被投入作战使用——定位也门的火箭发射器、红海的水面舰艇,并缩小在伊拉克和叙利亚空袭的目标范围。

Maven已从演习升级到真正的战争。伊朗将是它的期末考试。

伊朗:当理论成为现实

2026年2月底,美军发起了“史诗怒火”行动——对伊朗境内的目标进行打击。根据《华盛顿邮报》、CBS新闻和彭博社的报道,情况如下:

仅在行动的第一天,Claude就生成了大约1000个优先目标。

AI实时整合了卫星图像、信号情报和监控视频,生成带有GPS坐标、武器推荐和自动化打击法律理由的目标清单。彭博社报道称,美军在最初12小时内进行了大约900次打击。

计算一下。24小时内识别并处理了1000个目标。这大约是每86秒一个目标。12小时内900次打击意味着每48秒一次打击。回路中的“人类操作员”平均只有不到一分半钟的时间来审查每个AI生成的目标选定建议,下一个建议就出现了。

两位熟悉军方使用AI情况的消息人士向CBS新闻证实,Claude被用于对伊朗的攻击。彭博社报道称,美军“依赖AI作为加速对伊朗行动的关键工具”。

美国新安全中心执行副总裁、关于战争中AI的主要声音之一保罗·沙雷称之为“关键性转变”——AI使美军能够“以机器速度而非人类速度创建目标选定计划”。但他也发出了警告:“AI会出错。在生死攸关的问题上,我们需要人类来检查生成式AI的输出。”

伦敦玛丽女王大学的大卫·莱斯利更直接:这样的系统将时间线压缩到“人类监督所需的时间窗口大大缩短”。指挥官在技术上可能仍然“在回路中”,但真正审议的时间被急剧压缩。

请记住“猩红之龙”演习中的那些准确率数字。人类分析员:84%。Maven:60%。有时会把卡车误认为树。

米纳布学校

2026年3月2日上午,美国空袭了伊朗霍尔木兹甘省米纳布市的一栋建筑。五角大楼将该目标归类为“军民两用后勤设施”。伊朗当局称那是一所女子学校。

大约150名女学生遇难。

这是伊朗战役中单次伤亡最惨重的事件。人权观察要求进行独立调查,指出该建筑是已知的教育设施,且袭击时正在上课。伊朗政府公布了姓名和照片。开源情报分析师审查的卫星图像显示,在袭击前数天,该地点没有军用车辆或装备。

五角大楼、Palantir和Anthropic都没有证实或否认Maven的AI生成目标选定是否参与了选择米纳布建筑。但Maven当时正在处理整个伊朗的目标清单,每天生成超过1000个目标。问题不可避免:一个AI系统是否将一所女子学校归类为军事目标?

如果是,没有人及时捕捉到这个错误。在每86秒一个目标的情况下,值得怀疑是否有人能够做到。正是在这种机器速度的战争和平民伤亡不断上升的背景下,Anthropic的红线最终受到了考验。

僵局

然后事情变得复杂了。

在整个合作过程中,Anthropic一直坚持对Claude的使用方式有两个不可协商的限制:

  1. 不对美国人进行大规模国内监控。
  2. 没有人类监督的完全自主武器。

这些不是新要求。它们被写入了原始合同。五角大楼在2025年7月签署2亿美元协议时就知道这些限制存在。

但在2026年初,五角大楼推动了一份“所有合法用途”合同——一份将取消对Claude部署方式的任何限制的合同。Anthropic拒绝了。

据官员告诉CBS新闻,五角大楼的立场基本上是:这些事情本来就是非法的——大规模监控违反第四修正案,而且国防部政策已经限制了自主武器。那么,你们为什么需要将其书面化?

Anthropic的立场是:如果你们永远不会做这些事,为什么不愿将其写入合同?

根据Semafor的报道,真正的触发点可能更具体。在谈判破裂前几周,五角大楼一直在探索利用Maven的目标选定能力用于委内瑞拉的行动——围绕马杜罗政权的应急计划。据报道,Anthropic对此范围表示了担忧。五角大楼将此视为一家AI公司试图支配军事战略。

谈判破裂了。

2026年2月25日,国防部长皮特·赫格斯在X上宣布,任何与美国军方有业务往来的承包商将被禁止与Anthropic进行商业活动。然后,他根据《美国法典》第10编第3252条,正式将Anthropic指定为“供应链风险”——这个分类通常用于中国和俄罗斯等对手国家,而不是美国AI公司。Just Security的法律分析称这种指定“在应用于国内科技公司方面是前所未有的”,并质疑该法规是否被用于其预期目的还是作为施压手段。

特朗普总统命令每个联邦机构立即停止使用Anthropic的技术。国防部有长达六个月的时间来逐步淘汰Claude。

Anthropic的首席执行官达里奥·阿莫代发表了题为“达里奥·阿莫代关于我们与战争部讨论的声明”的公开声明——特意使用了“战争部”,这是国防部在1947年以前的旧称。他阐述了政府立场的荒谬之处:

“他们威胁要将我们指定为‘供应链风险’——这个标签是为美国的对手保留的,从未应用于一家美国公司——并威胁动用《国防生产法》来强制移除安全保障措施。后两种威胁本质上是矛盾的:一种将我们标记为安全风险;另一种将Claude标记为对国家至关重要。”

他的立场是:Anthropic支持所有合法的Claude军事用途。大规模国内监控和完全自主武器是它不会跨越的两条红线。阿莫代认为,当今的AI模型“根本不够可靠,无法驱动完全自主武器”。

在一份泄露给The Information的给员工的备忘录中,阿莫代更直率。他称OpenAI随后与五角大楼签署的协议——一份没有相同限制的协议——是“安全秀”,写道:“他们接受而我们没有接受的主要原因是,他们关心安抚员工,而我们实际上关心防止滥用。”TechCrunch报道称,阿莫代走得更远,称OpenAI围绕其自身军事协议的公开言论是“彻头彻尾的谎言”。

不可能的处境

Palantir现在被夹在中间。五角大楼已命令其从Maven中移除Claude——但Claude不是一个可替换的组件。使Maven工作的提示词、工作流程和分析管道是专门为Claude构建的。据Defense One报道,军方可能需要三个月或更长时间才能在机密网络上恢复同等能力。Claude是那些网络上仅有的两个大型生成式AI模型之一,也是唯一一个前沿级别的模型。深度集成意味着Maven包含“使用Anthropic的Claude代码开发的各种提示词和工作流程”,这不仅需要模型交换,还需要部分软件重建。

与此同时,在伊朗的军事行动仍在继续。而Maven——仍然在Claude上运行——仍在被使用。

以“大空头”闻名的投资者迈克尔·伯里捕捉到了其中的矛盾:“移除Claude是特朗普风格的做法...6个月的逐步淘汰期是军方在说,呃,我们暂时还需要Claude,而且不,单靠Palantir的包装加上其他模型是不够的。这表明粘性在于Claude的技术,而不是Palantir的。”

消息人士告诉路透社,军方领导人已变得如此依赖该系统,以至于如果阿莫代命令关闭Claude,特朗普政府很可能会动用政府权力保留它。正如一位官员所说:“无论他的道德是对是错,我们不会允许(阿莫代的)选择危及任何一条美国人的生命。”

因此,我们有一个这样的AI系统:

  • 正在持续进行的冲突中主动选定军事目标。
  • 建立在被五角大楼宣布为供应链风险的公司技术之上。
  • 是其创造者与使用它的政府之间激烈争议的主题。
  • 无法在不降低军事能力的情况下迅速替换。
  • 如果其创造者试图切断,很可能会被政府没收。

这里没有纯粹的英雄。Anthropic构建了技术并试图设置限制。五角大楼签署了有限制的合同,然后推动取消限制。Palantir整合了一切,现在成了背锅的。

替换的争夺

随着Anthropic被拒之门外,一场争夺正在进行。埃隆·马斯克的xAI已达成协议,在机密政府系统上开展工作。OpenAI与五角大楼签署了自己的协议,没有Anthropic的那些限制。Meta的开源模型已经在Palantir的框架内可用。而谷歌——这家在2018年退出Maven而开启整个传奇的公司——此后已悄然建立了一个蓬勃发展的防务业务组合,包括获得了一份大型中情局云合同的一部分,以及与亚马逊合作向以色列军方提供云服务。

这个完整的循环很难忽视。谷歌出于原则退出了Maven。八年后,它通过不同的门回到了防务领域,而试图设置护栏的AI安全公司却被宣布为供应链风险。

Palantir在国内的作为

当你审视Palantir在国内的过往记录时——这也是Anthropic设置监控限制的首要原因——事情变得更加令人不安。

Palantir构建了移民和海关执法局用于规划工作场所突袭和驱逐行动的案件管理系统。该公司的软件帮助ICE追踪无证移民的家庭关系、联系人及其行动模式。Palantir的工具也被整合到国税局的巨型数据库计划中,以民权组织所称的大规模监控后门的方式,将税务记录、财务数据和其他政府记录关联起来。

电子前沿基金会发表了一份详细分析,认为Palantir的国内监控架构已经在挑战第四修正案的边界——而五角大楼正是引用此修正案,称Anthropic的监控限制是多此一举。

这就是现在运行美国作战AI核心的公司。而Anthropic曾试图从这家公司获得一份书面承诺,不启用大规模国内监控。

世界需要知道的事

  1. 速度即危险 在积极作战行动中,一个AI模型一天内处理情报数据并输出了1000个目标选定建议。大约每86秒一个目标,人类操作员不是在审议。他们是在橡皮图章式地批准。红十字国际委员会已经对此发出警告——他们称之为“自动化偏见”和“认知卸载”,即人类在时间压力下有顺从机器建议的既定倾向。 当你每个目标只有不到90秒时,“人在回路中”这句话听起来比现实美好。

2026年初《自然》杂志的一篇社论说得很明白:“将大型语言模型集成到军事目标选定工作流程中,压缩了决策时间线,使其超出了可以进行有意义的人类判断的程度。”

  1. 150名女学生死了,没人能说是否是AI选择了目标

米纳布学校袭击造成约150人死亡,其中大部分是儿童。Maven当时正在生成目标清单。五角大楼、Palantir和Anthropic都没有说明AI生成的目标选定是否对此负责。在一个每天处理1000个目标的系统中——演习记录显示准确率为60%,有时会把卡车误认为树——错误不是异常。它们是统计学上的必然。问题不在于AI是否会误认目标,而在于频率有多高——以及是否有人有时间发现它。

  1. Anthropic试图划清界限,并因此受到惩罚 无论你对Anthropic的立场有何看法,以下事实值得深思:他们要求两项限制(无大规模监控,无自主武器),而美国政府的回应是宣布他们为供应链风险。其他所有AI公司都在观望。商业激励指向一个方向。据CNBC报道,防务科技公司已经开始先发制人地放弃Claude。据报道,同意Anthropic立场的谷歌和OpenAI员工团结支持该公司——但支持不能支付账单。

  2. “包装”架构使得问责几乎不可能

Maven是Palantir的产品。它运行在Claude上。而Claude运行在AWS上。它处理的情报来自数十个机构。它推荐的目标选定决策由遵循AI生成理由所解释的法律框架的军官批准。当一次打击出错时——而打击会出错——谁该负责?AI公司?平台公司?云提供商?点击“批准”的军官?

这不仅仅是责任的法律分散;更是技术上的分散。你不能简单地像换灯泡一样“换出”一个基础模型。定制的数据本体、深度嵌入的API调用和紧密耦合的分析管道,意味着军方的决策机构已永久地融合到Anthropic的专有架构中。没有一个简单的“关闭”开关,除非让整个系统崩溃。

Lawfare研究所的分析指出:“现代军事AI的层级化架构造成了问责空白,而现有的法律框架并非为解决此问题而设计。”

  1. 没有任何法律管辖这一切

没有联邦法规来规范军事目标选定中的AI。没有法律要求最低限度的人类审查时间。没有法规强制要求在涉及AI系统参与打击决策时进行披露。五角大楼自己关于自主武器的第3000.09号指令发布于2012年并于2023年更新,要求“适当级别的人类判断”,但从未定义“适当”——当然也没有说明当AI每86秒生成一个目标时这意味着什么。与限制化学和生物武器的公约不同,没有具有约束力的国际协议来管理自主或AI辅助的目标选定。美国提出了一份“关于人工智能和自主性军事使用的宣言”并获得了一些国家支持,但主要大国抵制具有约束力的限制。美国进步中心认为,Anthropic争议“是呼吁国会采取行动”,并指出“缺乏明确的法律框架不是一个特点——而是一种失败。”

  1. 目标是100%机器生成的情报,而且它正快速到来

Maven已不仅仅是美国项目。北约拥有它。各军种正在将其集成。合同金额在短短一年内从4.8亿美元增长到13亿美元。每天有超过2万名军事人员使用它。据报道,陆军正在探索与Palantir达成一份100亿美元的企业协议,这将使Maven架构成为所有陆军行动的基础。Palantir 3500亿美元的市值反映了其软件已成为五角大楼AI连接组织的现实。在谷歌退出时接手的公司,已使自己不可或缺。

而且步伐正在加快。五角大楼官员告诉防务记者,目标是在2026年6月前实现100%机器生成的情报目标选定——这意味着每一个目标提名都将源自AI分析,人类仅作为最终批准者。而非发起者。非分析者。只是批准者。

十三名前Palantir员工于2026年2月发表了一封公开信,警告“我们帮助构建的系统已经超出了我们理解的护栏范围”,并呼吁对Maven的目标选定流程进行独立监督。他们帮助构建了这东西,并且害怕它变成的样子。

走向何方

截至2026年3月5日,据报道达里奥·阿莫代已与五角大楼恢复谈判,他告诉CBS新闻:“我们正试图缓和局势,并达成某种对我们双方都可行的协议。”他补充道:“与政府意见相左是世界上最美国的事。”

但形势已经转变。OpenAI已经与五角大楼签署了一份没有Anthropic限制的协议。xAI正在进入机密网络。防务科技公司正先发制人地放弃Claude。供应链风险的指定悬在Anthropic头上。而消息人士称,政府宁愿没收技术,也不会让Anthropic切断。

Maven的发展轨迹说明了一切。一个7000万美元的探路者项目。训练了75行Python代码来识别无人机画面中的38种物体。谷歌退出。Palantir接手,代号“创”,花了六年时间将其打造成一个价值13亿美元的AI战争引擎,处理来自179个来源的机密情报,以机器速度生成目标选定包,如今正处于一场热战的核心。

谷歌员工是对的。2018年,那3100名签署反对“专家计划”信件的员工被斥为不理解国家安全的天真理想主义者。八年后,他们警告的那个项目正在使用处理情报速度超过任何人脑审查速度的AI,选定在伊朗的轰炸目标。他们没有阻止它。他们只是失去了塑造它的机会。

在2017年宣布“专家计划”时,副部长沃克写道,五角大楼需要在AI上“行动得更快”,以保持对对手的优势。八年后,Maven正在以超越人类认知的速度识别伊朗战争中的目标。到夏天,如果五角大楼如愿以偿,每一个目标都将源自机器。

是否还有人能够踩下刹车——或者是否有权这样做的人甚至还想这样做——仍是我们这个时代的悬而未决的问题。

技术再次超越了法律。只是这一次,它不仅仅是一个手机后门。而是整个杀伤链。

参考来源:https://www.linkedin.com/pulse/inside-maven-palantirs-military-brain-built-claude-anthony-maio-bd6ee

成为VIP会员查看完整内容
4

相关内容

军事防务数据板块介绍:系统化采集、存储、管理、分析与军事国防安全相关信息的专用数据板块,其核心在于整合全球新兴国防技术(军事人工智能、无人系统等)、热点案例(俄乌战争、美以伊战争)等方面的最新时讯、研究报告/论文、条令法规、案例分析,为战略研判、情报分析、决策支持等提供知识支撑。
VIP会员
最新内容
“Maven计划”的发展演变之“Maven智能系统”应用
《无人机革命:来自俄乌战场的启示》(报告)
专知会员服务
4+阅读 · 今天6:48
《实现联合作战能力所需的技术》58页报告
专知会员服务
2+阅读 · 今天6:30
以色列运用人工智能优化空袭警报系统
专知会员服务
3+阅读 · 今天6:20
以色列在多条战线部署AI智能体
专知会员服务
4+阅读 · 今天6:12
2025年大语言模型进展报告
专知会员服务
18+阅读 · 4月25日
多智能体协作机制
专知会员服务
15+阅读 · 4月25日
微信扫码咨询专知VIP会员