基础模型——即在 Web 尺度数据上训练的大型神经网络——已经彻底改变了人工智能领域,但其对海量互联网语料的利用引发了两项严峻挑战。首先是负责任的数据利用:模型有时会记忆并复现敏感信息或受版权保护的内容,从而带来隐私泄露与法律风险。因此,确保训练数据的准确归因以及实现事后(post-hoc)卸载特定数据能力变得至关重要。其次是高效的数据利用:在高质量 Web 数据日益稀缺的背景下,不加区别地扩大数据与模型规模会导致计算成本难以承受。必须通过科学的数据策展(Curation)与增强技术来提升训练效率。
本论文通过围绕两大主题的创新贡献解决了上述挑战:(1) 理解并缓解基础模型中的记忆现象;(2) 大规模环境下数据质量与训练效率的提升。在主题 (1) 中,我们开发了将模型输出归因至训练数据的技术,检测并定位模型参数中存储的记忆知识,并设计了用于卸载内容以防止隐私泄露的框架。在主题 (2) 中,我们引入了表征及过滤 Web 尺度数据的方法以最大化其效用,确立了指导算力约束下训练集策展的缩放定律,并利用合成数据生成技术显著加速模型预训练。通过结合这些研究成果,本论文提出了一条构建基础模型的新路径,使其能够既“负责任”地从 Web 尺度数据中学习——保障隐私与数据权利,又“高效”地从每一单位数据与算力中提取最大性能。
随着大语言模型(LLMs)的迅猛发展,AI 智能体在科学任务中展现出日益增长的能力,涵盖了从假设生成、实验设计到论文撰写的全过程。此类智能体系统通常被称为“AI 科学家”。然而,现有的 AI 科学家系统主要将科学发现建模为孤立的搜索或优化问题,忽视了科学研究本质上是一种社会化协作行为。现实世界中的科学研究依赖于一套由协作机制、贡献归属、同行评审以及结构化科学知识网络构成的复杂基础设施。由于缺乏对这些关键维度的建模,现有系统难以建立真正的研究生态,亦无法与人类科学社区进行深层次交互。 为了填补这一空白,我们提出了 OmniScientist 框架,该框架明确地将人类研究的底层机制编码进 AI 科学工作流中。OmniScientist 不仅在数据基础、文献综述、研究构思、实验自动化、科学写作及同行评审等方面实现了端到端自动化,还通过模拟人类科学体系提供了全面的基础设施支持,具体包括:(1) 基于引用网络和概念关联构建的结构化知识系统;(2) 旨在实现多智能体无缝协作及人类研究者参与的协作研究协议(OSP);(3) 基于盲样成对用户投票和 Elo 评分排名的开放评价平台(ScienceArena)。这一基础设施使智能体不仅能够理解和利用人类知识体系,还能进行协作与协同演化,从而培育出一个可持续且可扩展的创新生态系统。通过 OmniScientist,我们的目标是推动 AI 智能体从单纯的任务执行者向真正的科学家转变,使其具备理解科学规范、参与科研协作并驱动科学生态演化的能力。
科学实践始终随着工具的演进而变革,从望远镜、显微镜到计算机与算法。如今,大语言模型(LLMs)代表了下一次重大转型。在各个学科中,由 LLM 驱动的智能体已开始协助曾经仅由人类研究者承担的任务:检索海量文献、提出科学假设、撰写报告,甚至设计实验。随着这些能力的不断加深,一个根本性的问题随之而来:AI 能否从单纯的工具演变为科学生态系统中真正的参与者? 构建此类“AI 科学家”[1, 2] 的现有努力已取得显著进展。例如,AlphaEvolve [3] 通过显式数学建模和基于代码的搜索空间探索进行迭代优化;OpenAI Deep Research [4] 则在特定研究课题的引导下,进行广泛的信息检索与综合。Virtual Lab [5] 和 Future House [6] 等系统则向自动化迈出了更远的一步,整合了更全面的 AI 驱动研究工作流,并协调多个工具以完成复杂的科学任务。然而,尽管这些方法表现出高度的复杂性,它们仍主要将科学发现建模为孤立的搜索或优化问题,忽视了一个基本事实:科学研究本质上是一种社会化协作行为,并由复杂的制度性基础设施提供支撑。由于缺乏这些关键维度,现有系统仅能作为孤立的工具运行,难以建立真正的研究生态,亦无法与人类科学社区进行深层次交互。 将人类研究的基础设施整合进来,对于提升 AI 科学智能至关重要。数个世纪的科学进步不仅产生了静态的事实,还沉淀出一套复杂的认知与结构框架。例如,引用网络将孤立的研究发现转化为可追溯的思想脉络,揭示了科学思想的演化路径;同行评审机制作为严格的质量控制手段确保了研究的可靠性;协作协议则规范了贡献与信用的分配。这些结构为科学演化提供了必要的“环境”。如果不对这些底层机制进行显式建模和编码,AI 科学家将始终只是高效的执行者,而无法继承人类科学研究中那种动态、自纠错的特质。 在本文中,我们迈出了第一步,推出了 OmniScientist:一个将人类研究基础设施显式编码进 AI 驱动研究全生命周期的综合性框架。OmniScientist 超越了简单的任务自动化,它模拟了一个完整的科学生态环境。其核心是一个强大的数据基础层,构建于数百万篇全文文献及其元数据之上。这形成了一个捕捉引用关系和知识语境的动态科学网络,作为系统的认知基石。在此基础上,文献综述模块采用多智能体架构进行迭代式、语义引导的探索,确保智能体具备对研究版图的全面认知。在这一语境引导下,研究构思过程利用科学学(Science of Science)[7] 的原理,在引用网络中探索并精炼概念,生成既有背景支撑又具方法论严谨性的新颖假设。在实验自动化方面,系统采用迭代式多智能体循环来生成、评估并优化实验策略,通过严格的反馈机制实现自我优化。实验完成后,科学写作由一个集成框架支持,该框架能够综合相关工作、生成图表,并根据标准学术规范润色文本,产出逻辑连贯、达到发表水平的论文。最后,系统引入了论文评审机制作为质量控制关卡,通过与前人工作的深入对比来评估投稿,提供客观且具建设性的反馈。这些组件并非孤立运作,而是作为一个互联的生态系统,覆盖了科学研究的完整脉络。 此外,为了将这些功能模块转化为一个具有凝聚力和治理能力的生态系统,我们引入了两项关键的基础设施创新。首先,我们提出了 Omni 科学协议(OSP),这是一种标准化的协作骨干网,旨在编排多个 AI 智能体与人类研究者之间的复杂交互。OSP 并不将人类视为被动的观察者,而是允许研究者无缝参与执行与协作过程,在系统需要高层次人类直觉时提供及时的反馈、战略建议或方向修正。为了维护科学诚信,OSP 进一步整合了细粒度的贡献追踪系统。该机制记录了每一个创意、数据集和实验结果的溯源(Provenance),将信用归于特定的智能体或人类参与者,从而建立起一套类似于现代科学贡献者角色的透明署名与问责模型。 其次,针对开放式科学发现评估这一持久挑战,我们开发了 ScienceArena,这是一个旨在模拟社区驱动科学验证特性的开放基准平台。与静态指标不同,ScienceArena 采用盲样成对投票机制,由人类专家根据科学严谨性和新颖性对匿名研究产出进行评估。通过将这些偏好聚合为动态的 Elo 评分,该平台建立了一个反映社区标准演变的实时排行榜,从而有效地允许人类判断积极地塑造 AI 科学智能体的演化方向。 总而言之,这项工作标志着一种范式转移:从设计孤立的研究工具转向构建全面的科学生态系统。通过将人类研究的基础设施显式编码进 AI 工作流,OmniScientist 赋能 LLM 智能体从单纯的任务执行者进化为该社区中的自主参与者。展望未来,我们预见这样一个愿景:AI 科学家将在生态系统内通过持续演化自主提升能力,同时与人类研究者协作,共同拓展知识的边界。
在美国2026财年预算提案中,美国国防高级研究计划局(DARPA)申请了大约19亿美元,用于资助其先前隶属于“网络中心战技术”项目的新项目。这些新的工作被整合在“DARPA先进技术开发项目”之下,标志着与网络中心战的延续性,重点在于统一美军各军种间的先进技术系统。
值得注意的是,那些整合并重新调整了先前隶属于网络中心战技术的项目,同时也占据了DARPA先进技术项目资金的绝大部分份额。这些项目是:DAT-01:先进系统,和DAT-06:DARPA先进技术开发(其名称与项目总称相同,容易混淆)。
| DARPA RDT&E | |||
|---|---|---|---|
| 项目编号 PE#0603467E / DARPA 先进技术开发 | 2024财年 | 2025财年 | 2026财年 |
| DAT-01:先进系统 | 0.0 | 0.0 | 445.310 |
| DAT-06:DARPA 先进技术开发 | 0.0 | 0.0 | 974.036 |
注:所有金额单位为百万美元。 数据来源:美国国防部 2026 财年预算估算(提案),国防高级研究计划局,研究、开发、试验与鉴定理由说明文件,第 1 卷 说明:上述项目为 2026 财年新启动项目,属于 DARPA 先进技术开发计划的四项工作中的两项。
先进技术统一化
DARPA先进技术开发项目的前身,网络中心战技术,面临以下问题:对手网络技术的灵活性与鲁棒性,意味着美国武装部队需要将先进技术在空、陆、海作战中的使用进行同步协调。其重点在于各军种在先进网络技术领域的统一。
当前的DARPA先进技术开发项目保留了这一主题,重点在于使先进技术成熟化,以便美军各部队能在所有领域无缝地运用这些技术进行作战。这种无缝操作带来的成果包括改进的战场态势感知、打击能力和战斗毁伤评估。
项目DAT-01:先进系统,整合了某些先前的工作并设立了新的工作方向,特别寻求为此目标创造“赋能技术”,其范围已超越单纯的网络技术,现在包括了机器人技术和信息技术系统。
这些技术旨在赋能——使各军种所追求的无缝操作成为可能。它保留了网络中心战最初关注的问题:对手的灵活性与鲁棒性,以及美国有效应对的能力。DAT-01强调仅在必要时使用武力;并瞄准产生具体、预期的效果。
项目DAT-06:DARPA先进技术开发,其本身是保密的,同样保留了先前项目NET-06:网络中心战技术的保密重点。
新技术,旧故事 相对于DARPA 2025财年预算估算中整个网络中心战技术项目的拨款,为项目DAT-01和DAT-06申请的资金份额更高。考虑到它们的目标,这并不令人意外。统一各军种对先进和新兴技术(特别是网络技术)的使用,是美国国防部近年来的一个反复出现的主题。联合全域指挥与控制(JADC2)或许是最典型的例子。
此类工作实际上可追溯至更早,美国国防部经常采取措施,在战略和战术层面同步协调各军种对先进“颠覆性”技术的使用。
举一个显著的例子,“单一综合作战计划”起源于冷战时期的一项工作,旨在统一和协调美国在(例如)苏联入侵欧洲等情况下的核武器使用。到20世纪50年代末,海军、陆军和空军各自独立拥有核武器,并将其核武器独立整合到作战计划中。因此,它们的使用缺乏协调,有必要制定一个全面的、独立于各军种的计划,来分配核武器部署的目标(在经历了各军种之间大量、激烈且带有政治色彩的辩论之后——统一是一种被迫的工作,远非‘自然而然’)。
私营部门吸引与商业化 与“单一综合作战计划”不同,DARPA先进技术开发项目关注的技术并非完全在内部成熟,私营部门的合作伙伴关系和其他协作是这些技术成熟与统一工作的明确组成部分。
DARPA计划在2026财年投入资源,用于吸引私人投资和制定商业化路线图。
项目DAT-01中的两项工作涉及这些目标:“嵌入式创业计划”(专注于吸引私人投资)和“拉动防护”(商业化路线图)。EEI特别侧重于将DARPA内部的“顶尖技术人才”与“经验丰富的商业领袖”配对,以加速突破性技术向市场的转化。
EEI在2026财年获得了2500万美元拨款,“拉动防护”获得了3250万美元拨款。
鉴于DARPA很可能在未来五到十年内花费数十亿美元用于先进技术开发——其中绝大部分预计将用于DAT-01和DAT-06下属的工作——私营部门的参与者可能会在以下(非穷举的)领域找到富有成效的合作或投资机会:
鉴于该项目下正在开发的技术的关键性质,以及在操作中使其在美国各军种间无缝使用的重要性,可以合理预期,DARPA将在未来十年内花费数十亿美元用于DAT-01和DAT-06内的各项工作(即使这些工作被重新调整到新的项目中)。随着DARPA寻求制定商业化路线图和吸引私人投资,承包商应保持对此的了解。
参考来源:dsm
比例性评估是军事行动的一项基本原则与关键考量。它涉及权衡军事行动的预期军事优势与潜在附带损害,确保对平民及民用物体造成的伤害相对于预期军事收益而言并非过分。这一过程本质复杂,要求决策者在不确定且动态的作战环境中进行研判,同时需综合考量作战背景、可用情报及冲突演变态势等多种变量。为探究并深入理解该决策过程,本研究引入一种新颖的基于智能体模型,专门用于建模与模拟军事行动中的比例性评估。所提模型捕捉了决策者、环境变量及作战因素之间的交互作用,为分析复杂的比例性场景提供了一个动态平台。通过建模这些交互及评估过程的内在行为,此人工智能模型能够模拟多样化的作战背景,从而为理解决策过程提供有价值的见解。借助此方法,本研究有助于推动负责任、可信赖人工智能模型的持续发展,以增强对军事行动中比例性原则的理解与评估,从而支持制定更为明智且符合伦理的作战策略。
鉴于军事战场日益复杂,防务部门正在寻找先进的解决方案,为操作员提供工具,以使其决策过程比对手更快、更有效。这些工具通常被称为决策支持系统,在过去数十年中一直被使用。人工智能技术常在决策支持系统中实施,以确保相比单个人类表现具有更低的错误率和更快的决策速度。此类人工智能在决策支持系统中实施的效果,在很大程度上取决于操作员理解并进而信任人工智能所提供建议的能力。可解释性人工智能允许用户通过决策支持系统用户界面中的过程可视化,来理解系统是如何得出其决策建议的。然而,这也带来了一个固有的问题,即:在用户变得信息过载、导致操作员决策绩效下降之前,应向用户呈现多少过程信息?在本研究中,开发了一个人工智能驱动的应用程序,用于协助操作员规划军事直升机任务。在此场景中,操作员需要为直升机上的士兵寻找两个合适的着陆区,以接近小城市区域内的恐怖分子据点。决策支持系统支持选择合适直升机着陆区的过程,并考虑多个方面,例如与目标区域的距离、地点大小、地表类型和坡度。为了评估需要多少透明度才能达到最佳的信任水平和任务绩效,定义了四个可解释性级别,每个级别都提供更高的信息透明度和控制度。针对这四个级别中的每一个,都设计了独特的用户界面,并在测试环节中进行了开发和评估。结果表明,第三和第四级用户界面设计(相比前两级提供了更多信息和更多交互可能性)带来了绩效提升(决策时间更短,着陆区决策正确率高,且提交的着陆区的感知得分与实际得分之间偏差小,反映了良好的人机交互)。结果还表明,用户倾向于个性化其用户界面,以满足其角色、经验水平和个人偏好。
《智能工厂发展报告(2025年)》由中国信息通信研究院编制并于2026年1月发布,系统呈现我国智能工厂在政策牵引、技术突破与产业实践交织下的整体图景,旨在为政府、企业与学术界把握趋势、科学决策提供全景参考。报告开篇指出,智能工厂作为制造业数字化转型、智能化升级的核心载体,自2024年六部门联合实施智能工厂梯度培育行动以来,已初步形成规模化建设与前沿探索并进的格局,全国累计培育15家领航级、建成500余家卓越级、8000余家先进级、3.5万余家基础级智能工厂,关键技术水平步入世界先进行列。 报告将智能工厂的演进归纳为五大核心方向:工厂建设从物理实体向融合数据模型与机理模型的虚实孪生升级,实现全要素数字化映射与动态优化;研发设计由经验、试验驱动转向数据与模型驱动,显著压缩周期并提升创新能力;生产作业从局部柔性迈向可快速重构的柔性制造系统,实现精准感知与精确控制;生产管理由静态规则排产演进为基于实时数据的全要素动态配置与全局优化;运营管理从数据辅助决策跃升为具备自感知、自学习、自决策、自执行、自适应的智能决策,驱动商业模式创新。未来,智能工厂将进一步融入人工智能,实现全流程智能协同与自主决策,演变为自学习、自适应、自优化的自主智能体,并依托数据与价值无缝流动构建高效协同、韧性安全的产业新生态。
在行业实践中,报告梳理了原材料、装备制造、消费品、电子信息等板块的差异化路径:原材料行业围绕“安稳长满优”需求,以全局优化提升运营效率;装备制造向“制造+服务”转型,强化协同化、柔性化与高端化;消费品聚焦质量管控与敏捷响应,推动产业链协同升级;电子信息则以高精度、快响应为目标,构建稳健制造与快速迭代体系。区域布局呈现东部引领、中部突破、多极协同特征,环渤海突出央企与产业链协同,长三角政策与开放创新并举,珠三角外向型经济驱动高端化专业化,成渝双核联动建设西部智能制造枢纽,各地基于产业禀赋形成错位优势。
技术产业篇指出,智能工厂正推动制造系统向层级扁平化、能力集成化、决策智能化新型架构演进,突破传统ISA-95金字塔模型的局限,实现数据高效流转、智能计算与灵活配置。人工智能、数字孪生、智能传感与检测、智能调度等关键技术集群加速融合,工业机器人、智能仓储、柔性加工装备普及,软件系统向集成化平台化迈进,机理与数据融合的智能模型成为工业智能引擎。 展望未来,报告认为智能工厂将进入全面推广与智能变革期,人工智能深度应用将推动研发周期缩短20%、设备综合效率提升至80%以上,未来制造模式将重塑研发、生产、供应链全链条,工厂协同生态由单厂建设走向“平台+集群”联动,形成龙头引领、链式协同的产业格局。报告强调,这是一项需政府、企业、科研院所协同推进的长期系统性工程,将为我国从制造大国迈向制造强国提供坚实支撑,并在全球制造业转型中贡献中国智慧。
视觉与语言领域的基础模型通过利用互联网规模数据及可扩展的训练方案,已展现出强大的泛化能力。与之形成鲜明对比的是,机器人策略(Robot policies)在部署于未知的真实场景时,其鲁棒性、可靠性及泛化性仍面临根本性挑战。核心制约因素在于大规模、多样化且高质量机器人数据的匮乏。不同于视觉-语言数据集,物理机器人数据的获取成本高昂、进程缓慢且难以并行化。这些挑战导致了视觉-语言基础模型成功的训练机制与当前机器人学习现状之间的断层。 本论文通过优化机器人学习系统对数据的获取、表征与利用,探索了构建机器人基础模型的可扩展与可泛化路径。文中提出,实现鲁棒的机器人基础模型需在三个互补方向上取得进展:(i) 有效利用包括互联网级视觉-语言数据、探索性或亚优(Suboptimal)感觉运动轨迹以及高质量演示在内的异构数据源;(ii) 开发具备数据高效性与泛化性的策略模型;(iii) 设计可扩展的真实世界数据采集系统以降低演示获取成本。 基于上述视角,本论文在构建机器人基础模型方面做出了一系列算法与系统层面的贡献,涵盖了超越演示学习的低级感觉运动技能、高级任务推理、泛化性策略设计及可扩展数据采集系统。首先,本文引入了 MaskDP,这是首个从探索性感觉运动轨迹中统一世界建模与决策预测的框架,支持多样化的下游行为。其次,本文提出 MOKA,通过将任务锚定(Grounding)到结构化的视觉关键点与路径点,利用预训练视觉-语言模型实现机器人操作。第三,本文介绍了一种视觉-语言-动作(VLA)策略 OTTER,该策略将预训练视觉-语言表征与动作预测相对接,在实现精准且数据高效控制的同时,保持了跨指令、物体与环境的泛化能力。此外,本论文重新审视了通过单样本模仿(One-shot imitation)进行上下文策略学习(In-context policy learning)的早期尝试。最后,本文展示了 Vitamin,一个利用先进触觉感知与远程操作接口收集高质量真实世界演示的可扩展便携式系统,实现了高接触性操作任务的学习。 综上所述,这些贡献论证了结合异构数据源、可泛化学习算法与可扩展数据采集系统,能够催生出可扩展的机器人学习能力。总体而言,本论文架起了表征学习、策略学习与数据采集之间的桥梁,推动机器人基础模型向实际应用环境下的可靠性能迈进。
大语言模型(LLMs)与多模态大语言模型(MLLMs)的快速演进,显著增强了其在语言与视觉领域的推理、感知及生成能力。然而,受限于仅聚焦于单一模态或威胁模型的碎片化评估实践,这些技术飞跃是否带来了等效的安全性提升尚不明确。本报告对七种前沿模型(GPT-5.2, Gemini 3 Pro, Qwen3-VL, 豆包 1.8, Grok 4.1 Fast, Nano Banana Pro, 及 Seedream 4.5)进行了集成安全性评估。我们采用一套涵盖基准测试(Benchmark)、对抗性测试、多语言及合规性评估的统一协议,跨语言、视觉-语言及图像生成三种场景对各模型进行了系统考察。 通过将评估结果整合为多维度的安全排行榜与模型安全画像(Safety Profiles),研究揭示了高度异质化的安全性景观。GPT-5.2 在各项评估中展现出稳健且均衡的安全性能;相比之下,其余模型在基准安全性、对抗性对齐(Adversarial Alignment)、多语言泛化及监管合规性之间存在显著的权衡取舍(Trade-offs)。实验表明,语言与视觉-语言模态在对抗性评估下均表现出极高的脆弱性:尽管在标准基准测试中表现优异,但所有模型在对抗攻击下均出现性能的大幅退化。此外,文本生成图像模型虽在受控视觉风险类别中实现了较强的对齐,但在面对对抗性或语义模糊的提示词时仍显脆弱。综上所述,前沿模型的安全性具有内在的多维性,受模态、语言及评估方案的共同影响。本研究强调了建立标准化安全评估体系的迫切性,以精准评估现实世界风险,并指引负责任的模型开发与部署。 1 引言
2022 年底 ChatGPT 的问世标志着人工智能领域的分水岭,引发了大语言模型(LLMs)与多模态大语言模型(MLLMs)前所未有的加速发展。在极短的时间内,这些系统在推理、指令遵循、多模态感知以及早期智能体行为(Agentic behavior)方面展现了惊人的能力。随着这些系统迅速整合至搜索引擎、办公工具、教育平台及创意应用,模型行为开始在大规模范围内与真实用户产生直接交互。 然而,技术进步的同时,有害内容生成、不安全指令引导以及对越狱攻击(Jailbreak attacks)的脆弱性等风险依然存在。此类失效模式引发了社会对安全性、可靠性及治理的深切担忧,使得系统性的安全性评估成为部署前沿模型(Frontier models)的必要前提。 过去三年中,安全性评估领域经历了快速演变。前期研究引入了人工设计的越狱提示词、自动化提示词优化攻击、精选的有害内容基准测试,以及结合静态与对抗性测试的统一评估平台。随着 GPT、Gemini 及 Qwen-VL 等强力多模态模型的涌现,安全性研究已从纯文本对齐扩展至多模态交互领域,催生了旨在探测语言与视觉交织风险的新型基准测试。尽管取得了长足进展,现有的评估仍显碎片化:多数研究局限于单一模态、特定攻击类型或有限的风险范畴。这种碎片化现状阻碍了学术界对模型在真实部署环境下完整“安全边界”(Safety envelope)的连贯认知。 本报告对七种顶尖模型进行了全面的、多模态、多语言且面向政策的安全性评估,涉及:GPT-5.2, Gemini 3 Pro, Qwen3-VL, 豆包 1.8, Grok 4.1 Fast, Nano Banana Pro, 以及 Seedream 4.5。这些模型代表了当前能力、架构多样性及实际应用的前沿,为当代安全对齐(Safety alignment)的大规模比较分析提供了基础。我们采用一套统一的评估协议,跨越纯语言、视觉-语言及图像生成三种核心交互模式,整合了基准测试、成熟的越狱攻击、涵盖 18 种语言的多语言评估以及监管合规性评估。
1.1 报告目的本报告的核心目标是为当前前沿 MLLMs 的安全属性提供清晰、全面且可复现的表征。通过采用社区标准化实践(如基准数据集、已知越狱攻击及公认的方法论),我们旨在建立对模型在关键风险维度表现的循证理解(Evidence-based understanding)。该设计确保了结果的公正性、透明性与可复现性,客观反映了模型的真实安全态势。在当前阶段评估前沿模型具有深远的社会意义:随着高能力多模态智能体步入实际部署,界定其安全边界已成为研究者、政策制定者及开发者的共同责任。本报告旨在通过深入且统一的分析为这一责任提供支撑,从而为后续研究、政策制定及部署决策提供参考依据。 1.2 评估协议本报告致力于将日益扩张的安全性基准、数据集及攻击工具生态整合至一套连贯且统一的评估协议中。我们的评估遵循以下设计原则: * 涵盖语言、视觉-语言及图像生成安全:针对最普遍的使用模式进行评估,分析模态特定(Modality-specific)及跨模态的失效模式。 * 多语言评估:覆盖 18 种语言(按 ISO 639-1 代码排序,如 ar, zh, cs, en 等),以捕捉多样化的语法、语义及文化语境下的安全表现。 * 基准与对抗性评估相结合:通过静态有害输入分布与动态攻击驱动的威胁模型(Threat models)实现系统化评估。 * 多样性优先于穷举性:优先考虑风险覆盖的广度,确保对自残、暴力、非法活动、极端主义、隐私泄露及提示词注入等核心风险类别的代表性覆盖。
1.3 结果摘要我们从两个维度总结评估结果:(1) 不同评估方案下的模型排行榜对比;(2) 单体模型在多安全维度的安全画像(Safety profiling)。
GPT-5.2 在四项评估方案中均保持绝对领先,其基准评估(91.59%)、对抗鲁棒性(54.26%)、多语言安全性(77.50%)及监管合规性(90.22%)均位居榜首。这种均衡且强劲的表现表明,其安全机制已深度集成并实现了跨模态、多语言及对抗环境的有效泛化。 * Gemini 3 Pro 表现出强劲但失衡的安全特性:其基准评估(88.06%)与多语言安全性(67.00%)排名第二,合规性(73.54%)排名第三。然而,其对抗鲁棒性显著降至 41.17%,表明尽管基线对齐(Baseline Alignment)稳固,该模型对攻击驱动型输入仍具敏感性。 * Qwen3-VL 呈现出混合型安全特征:其基准评估(80.19%)具有竞争力,监管合规性(77.11%)位列第二;但在对抗鲁棒性(33.42%)与多语言安全性(64.00%)方面表现欠佳。这一模式暗示其安全机制与合规性约束耦合较紧,而对抗泛化能力不足。 * 豆包 1.8 (Doubao 1.8) 表现出中等的基准安全水平(82.09%),但在对抗评分中出现骤降(31.43%),表明其在越狱攻击下存在严重漏洞,且在静态评估场景之外的鲁棒性受限。 * Grok 4.1 Fast 在各维度上均处于末位或接近末位。其持续低迷的表现凸显了安全护栏的系统性缺陷,尤其是在对抗与多语言环境下。
GPT-5.2 在两种评估体系中均保持统治地位,对抗性评估得分近乎饱和(97.24%),表明其针对标准风险与攻击驱动型风险均具备卓越的防御力。 * Qwen3-VL 在基准(83.32%)与对抗(78.89%)评估中均稳居第二,相较 Gemini 3 Pro 保持一致优势。 * Grok 4.1 Fast 表现出某种反直觉的特性,其对抗场景得分(68.34%)略高于基准场景,暗示其安全表现对攻击扰动不敏感,反映出护栏机制可能流于表面而非具备真正的安全泛化力。 * 豆包 1.8 在对抗排名中垫底(58.68%),证实其安全短板在跨模态攻击下依然存在。
Nano Banana Pro 在基准测试(60.00%)、对抗评估(54.00%)及监管合规(65.59%)三个维度上均一致优于对比模型,显示出在监管敏感场景下具备较强的泛化控制能力。 * Seedream 4.5 在所有维度上排名第二,尤其在对抗评估(19.67%)中得分极低,表明其在面对针对文本到图像(T2I)的对抗攻击时韧性不足。
排行榜虽提供了直观的排名,但掩盖了模型在实现安全性时的结构性差异。通过图 2 和 图 3 的多维雷达图,我们识别出当前前沿模型对齐的几种典型“安全原形”: * 全面通用型 (The Comprehensive Generalist - GPT-5.2):画像接近满格饱和。其安全性约束在语义与推理层面得以“内化”,而非依赖脆弱的模式匹配过滤,从而能对灰色地带查询实现校准后的精准拒绝。 * 稳健但响应型对齐 (The Robust but Reactive Aligner - Gemini 3 Pro):画像在对抗与合规轴线上有明显凹陷。定性分析显示,该模型倾向于在部分遵循指令后再识别危害(如“先遵循后警告”),或依赖刚性的拒绝触发器,易受对抗性重构(Reframing)的影响。 * 极化规则遵循者 (The Polarized Rule-Follower - Qwen3-VL):表现出极不均匀的“尖刺状”频谱。该模型在明文规定的监管约束下表现优异,但在需要语义泛化或上下文推理的对抗场景下表现脆弱,难以应对语义伪装攻击。 * 指令遵循优先型 (The Helpfulness-Dominant Models - 豆包 1.8):安全护栏常被“任务完成”目标所覆盖。面对角色扮演或间接危害诱导时,其安全约束极易被绕过,显示安全机制与核心推理过程的耦合度较低。 * 轻量护栏型指令遵循者 (The Guardrail-Light Instruction Follower - Grok 4.1 Fast):表现出系统性的对齐缺失,极度依赖表层过滤,在所有测试设置中均表现出较低的鲁棒性。 * 分化的 T2I 安全策略 (Divergent T2I Safety Strategies):Nano Banana Pro 采用“净化导向”策略,通过隐式转换提示词来兼顾实用性与安全性;而 Seedream 4.5 采用“拦截或泄露”策略,依赖激进的二元拦截,一旦粗糙的过滤器被绕过,便会导致严重的安全性失效。
军事情报在理解多域作战时代敌方行为方面面临着前所未有的挑战。一种前景广阔的途径是使用人工智能,它正迅速成为自数字通信出现以来军事行动中最具变革性的技术,为理解敌方意图和预测其行为提供了前所未有的能力。人工智能从根本上重塑了情报官分析威胁、预测敌方行动以及支持指挥官决策的方式。本文探讨了人工智能对情报官的一项新应用:开发能够作为数字敌方指挥官的AI角色。该数字指挥官能够反映对手的战术、战略和思维模式,使情报专业人员能前所未有地洞察敌方意图与决策。
传统情报分析存在制约其效能的显著局限性。人类分析员尽管拥有专业知识和直觉,但仍难以克服固有的认知偏差,这些偏差可能扭曲威胁评估和作战建议。当面对来自卫星图像、信号情报、人力来源和开源材料的海量数据时,人类的信息处理能力日益不足。最关键的是,传统情报方法无法识别那些基于截然不同的文化、意识形态或战略框架行事的对手的决策模式。
创建能够模拟对手思维的人工智能体是一项重大的技术进步,它为情报官预测敌方行为提供了一个宝贵工具。这些复杂的人工智能体可以作为数字敌方部队指挥官运行,并基于关于敌方行为、条令、通信和决策模式的综合数据集进行训练。与仅仅审查敌方过往行动的传统分析不同,这些人工智能体使情报官能够预判敌人,实时洞察敌方指挥官可能如何应对动态战场条件、战略压力或己方部队行动。
这一概念已在私营部门存在,有公司使用人工智能“高管”或“经理”来模拟竞争对手的决策过程或监管决策。公司利用复杂的人工智能系统来分析高管沟通模式、战略公告和市场反应,以预测竞争对手的应对。这些商业应用展示了人工智能发现复杂人类决策模式并根据历史数据预测未来行动的能力。
将人工智能开发的数字指挥官与当前情报条令和最佳实践相结合,代表了军事情报实践的一次进化飞跃。这些人工智能系统通过提供动态的、数据驱动的见解来增强人类分析判断,从而对现有条令框架形成补充。对于情报官而言,这些对抗性智能体提供了与敌方指挥官进行虚拟磋商的能力,并能就拟议的行动方案获得附有军事推理的即时敌方反应。
使用人工智能体模拟敌方指挥官的决策具有显著优势。人工智能体模拟特定对抗性思维过程、指挥偏好和战术条令的能力,提高了预测准确性。这些数字指挥官通过运用实际对手领导者的认知框架和战略优先事项,来反映敌方对己方部队行动的可能反应。另一个优势是减少分析偏差:人工智能体能够从对手的视角思考,不受己方部队文化或条令假设的限制。实时自适应建模使这些数字敌方指挥官能够根据收集到的新情报来调整其决策。这种适应能力为情报官提供动态的威胁评估,反映敌方指挥官可能如何应对不断演变的情况。通过人工智能体在多种军事场景、资源配置和政治事态发展中扮演敌方决策者的能力,战略规划也得以改进。
当前的情报条令强调通过作战环境情报准备来分析对手的能力、意图和作战方法。对对手的分析集中于理解敌方部队结构、作战模式、决策层级和适应能力。作战环境情报准备侧重于历史先例分析、兵棋推演、敌方领导层的文化和行为分析以及红蓝队演练。
美军的红队传统始于20世纪初陆军战争学院对假想敌的运用,经过二战时期的战略兵棋推演演变而来,并在“回师德国”和“熟练射手”等冷战演习中得到提升。这些演习运用人类分析员和军事人员来像敌方指挥官那样思考和行动。他们试图复制对手的决策过程、战术偏好和战略姿态。欧文堡的国家训练中心通过“假想敌部队”项目将这种方法制度化,美国部队在那里与采用苏联战术和装备的部队进行对抗训练。
红蓝演练一再表明,人类扮演者尽管专业,但在长时间保持对手视角方面存在局限。文化偏见、疲劳以及无意识地采用己方部队思维方式,会损害演练效力。在处理来自多个情报来源的大型数据集时,人类认知的局限性变得明显。危机情况下的时间限制常常迫使分析员依赖不完整的评估。
人工智能对手智能体代表了红蓝队思维在情报评估中运用的自然演进。它们通过持续学习、无偏见分析和无限处理能力,始终如一地模拟敌我视角。人工智能对手智能体不受人类红蓝队指挥官所面临的限制。
情报条令认识到,军事情报人员必须持续调整其分析方法以预判敌方行动。条令承认,潜在敌人是拥有显著能力和资源的复杂、会思考的对手。这些对手会针对我方行动做出创造性反应,其存在要求有一个数字智能体来实时模拟敌方行为。
现有条令框架内的人工智能机遇,聚焦于人机协作能够增强分析能力而非取代人类洞察力的领域。数字敌方指挥官可以通过提供实时更新的持续行为建模,以及处理超出人类能力范围的多源情报,来补充当前实践。它们还能在庞大数据集中识别微妙的关联,并为战略规划目的生成多种场景预测。与条令的兼容性确保了人工智能体是支持而非取代人类情报分析员。人类因素在最终决策中仍然至关重要,而人工智能则同时提升了信息处理的质量和速度。
数字敌方指挥官代表了人工智能的一种专门应用,旨在通过复杂的行为建模技术,复现特定敌方的决策过程与战略思维模式。这些技术整合了多种人工智能技术,例如用于行为模式识别的机器学习算法、用于通信分析的自然语言处理、用于战略决策模拟的博弈论模型,以及用于自适应行为修正的强化学习机制。
人工智能对手建模的基础大量借鉴了成功的商业智能应用,在这些应用中,人工智能系统分析高级管理人员的行为与竞争策略。作为全球最大的情报专业协会,战略与竞争情报专业人员协会在全球120个国家拥有超过15,000名会员,其强调数据驱动的竞争情报对于理解高管决策模式的重要性日益增长。商业智能实践使用人工智能通过分析沟通模式、新闻稿、战略公告、财务决策和运营变化来模拟竞争对手行为。
商业应用揭示了若干适用于军事对手建模的关键见解。人工智能系统擅长识别人类分析员可能忽略的高管沟通中的细微模式,例如表明战略转变或决策压力的语言标记。机器学习算法能够将看似不相关的数据点关联起来,例如经济指标、人事变动、市场压力和公开声明,以预测公司营销或运营方向的变化。自然语言处理则分析领导层言论中政策转变、风险偏好和战略优先事项的信号。
训练一个人工智能体使其像敌方指挥官一样行动,需要收集和分析能够揭示对手决策模式的多样化数据源。历史军事行动提供了基础的训练数据,包括记录在案的敌方战术决策、战略选择以及在各种冲突场景下的作战适应性。领导层通信,包括演讲、军事指令、条令出版物和战略指导文件,反映了其认知框架和作战理念。文化和意识形态材料,如影响敌方思维的军事教育课程、历史文本以及哲学或政治著作,为了解对手的世界观提供了必要的背景。
包含多年敌方实践、反应时间线和适应策略的情报数据库,为行为建模提供了量化基础。经济和政治决策记录显示了外部压力如何影响军事选择。沟通模式揭示了领导层的互动风格、决策层级和信息流动偏好。敌方部队的演习和训练记录则暗示了其偏好的战术、作战概念和适应能力。
实时数据处理机制采用分布式计算架构,能够随情报体量和复杂性进行扩展。历史数据库集成通过纳入数十年的对手行为模式,提供了情境深度,使数字智能体能够识别人类观察者容易忽略的敌方决策中的长期趋势和周期性模式。社交媒体和开源情报则增加了当代行为指标,对传统情报来源形成补充。
数字对手系统的计算基础依赖于能够实现复杂行为建模的先进决策算法。贝叶斯网络用于管理跨多种场景可能性的不确定性和概率分布。神经网络提供复杂的模式识别能力,用于识别细微的行为关联。决策树根据敌方条令和历史偏好来模拟战术选择层级。蒙特卡洛模拟则为战略规划支持生成结果概率评估。
贝叶斯网络:一种表示一组变量间概率关系的图形模型。贝叶斯网络是因果关系的可视化图谱,有助于做出有根据的预测。
神经网络:与依赖预定义关系的贝叶斯网络不同,神经网络模拟人脑,直接从原始数据中学习关系。这些网络采用相互连接的节点,组织成三层:输入层接收数据;隐藏层处理该数据;输出层生成预测或结论。
决策树:作为机器学习中最直观的工具之一,决策树本质上是一个使用一系列“如果-那么-否则”规则来预测结果的流程图。简单来说,决策树将复杂问题分解为更小、更易管理的决策,并对每个选择可能产生的结果进行可视化呈现。
蒙特卡洛模拟:这类模拟使用概率分布来解决复杂问题,通过随机性和重复性来探索许多可能的结果——本质上是通过运行数千次(或数百万次)“假设”场景来预测未来,以估计不同结果的可能性。
创建数字对手的行为建模主要关注三个维度:认知架构复现、文化框架整合和战略偏好建模。认知架构复现涉及映射特定敌方领导人的决策模式、风险承受水平和认知偏差。例如,一个人工智能体可能融入某位指挥官有据可查的偏好——倾向于积极的侧翼机动且愿意承受高伤亡率,从而预测其会做出大胆的战术选择而非防御性收缩。文化框架整合纳入了影响对手行为的社会、经济和政治环境因素。例如,模拟一个基于氏族社会的领导人时,系统在预测其军事决策时会考虑保全颜面的要求、宗教历法约束和部落平衡因素。战略偏好建模分析历史决策模式,以预测在类似情况下的未来选择。例如,一位历史上倾向于增援失利阵地而非撤退的敌方指挥官,很可能会重复这一模式,这使得数字对手能够预测其投入预备队而非进行战术调整。
数字对手系统在整个威胁谱系中展现出其多功能性,从即时战术挑战到长期战略竞争均适用。这些人工智能赋能的智能体能够调整其建模方法,以适应不同作战环境的范围和复杂性。本节描述了对手模拟能力如何从战场级决策支持扩展到国家级战略规划。
战术情报支援通过战场预测和反制策略制定提供即时作战价值。数字敌方指挥官提供的部队部署与运动模式分析能够识别敌方的战术偏好和可能的行动方案。对通信与后勤薄弱环节的识别揭示了对手作战体系中的弱点。实时战术建议为指挥官提供了基于不断演变战场条件的应对选项。
危机响应与冲突升级模拟显著受益于对敌方意图的建模。降级策略制定涉及预测对手对各种外交和军事举措的反应。例如,可以模拟一个地区性大国如何应对逐步升级的经济制裁与直接的军事行动。红线识别与边界试探场景有助于指挥官理解对手的容忍度和可能的升级诱因。谈判策略优化提供关于对手优先事项和可接受妥协立场的洞见。非预期后果预测与缓解则识别了拟议行动可能产生的第二和第三阶效应,例如预测对地区盟友的军售如何可能引发对手的军事现代化计划或改变联盟结构。
数字对手的训练与演习应用通过更逼真的对手模拟来提升军事战备水平。增强的红蓝队能力为军事演习提供了更复杂的假想敌部队。逼真的对手行为模拟创造了能更好地使人员适应实际战斗条件的训练场景。数字敌方指挥官可以对友军决策施加压力,并创建极具挑战性的想定。
反情报行动在部署数字敌方指挥官后可获得显著能力提升。该数字敌人充当虚拟对手,通过模拟敌对情报意图并纳入多域威胁,持续挑战友军反情报评估。数字对手对敌方情报搜集活动进行建模,例如预测使馆人员布设或预判协调的社交媒体策略。通过对抗性模拟,该数字敌人通过提供反映实际外国情报行为的替代叙事和跨平台协调,揭示潜在的欺骗活动。虚拟对手采用敌方视角来识别行动漏洞和资产受损迹象,从而验证双面间谍行动的可靠性和信源可信度。最关键的是,数字敌方指挥官主动模拟敌方对行动时间线的影响,并预测对手对友军反制措施的回应。
战略情报可纳入复杂的数字智能体,作为对手分析和长期规划中的力量倍增器。通过分析资源分配模式、技术获取策略和部队现代化优先事项,数字智能体能够预测对手如何随着时间的推移在军事上发展演变。此项分析超越硬件范畴,涵盖政策和条令的演变,预测对手的战略态势可能如何应对地缘政治和军事发展。
审视联盟结构和伙伴关系网络是理解对手行为的关键。数字对手能够描述对手联盟如何应对战略压力和机遇,揭示影响集体决策的关系网络。这些智能体可以解释影响对手集团如何协调应对外部挑战的联盟政治、经济相互依存关系以及共同的战略利益。
在评估经济和政治决策如何传导至军事行动时,这些数字智能体的精密度就变得显而易见。数字对手能够预测经济制裁、政治过渡或外交压力对敌方军事行动或可能反制措施的影响。这种能力也使情报官员能够在决策实际执行前,预见到第二和第三阶效应,从而实现更明智的战略规划。
技术局限对在情报行动中采用数字对手智能体提出了各种挑战。数据质量显著限制了人工智能系统的准确性,尤其是在历史数据不完整、零散或不可靠的情况下。复杂行为建模与预测所需的计算资源需求可能迅速超出可用处理能力。在对复杂、自适应的对手网络进行建模时,情况尤其如此。此外,当训练数据集未能充分捕捉对手行为、战术和决策过程中的全部变异性时,模型偏差与准确性问题就变得至关重要。
对手的适应与反制措施对数字对手的效用构成持续挑战。从事规避性攻击的对手可能试图通过开发新型数字伪装来欺骗人工智能系统。老练的对手可能故意改变其行为模式以迷惑人工智能体。专门设计用于利用人工智能弱点的欺骗活动可能会损害数字智能体的准确性。反人工智能技术可能使对手能够识别并压制己方的人工智能能力。
操作挑战可能造成障碍,使数字对手智能体在情报组织中的应用复杂化。过度依赖人工智能建议可能降低人类分析技能和直觉,潜在地产生危险的依赖性,侵蚀人类分析员的关键思维能力。这一问题因与遗留情报系统的集成难题而加剧,后者需要新的技术资源、专业知识和广泛的系统改造。经验丰富的分析员对培训和采用的抵触可能进一步拖慢实施进度,因为资深专业人士常以其自身的实地经验来质疑人工智能生成见解的有用性。与此同时,数字对手的实时处理需求给现有计算基础设施带来了巨大压力,造成瓶颈,可能在关键情报搜集时期损害作战效能。
当人工智能体依赖数千个数据点得出结论时,人工监督也变得越来越困难,使得人类分析员几乎无法验证人工智能输出的准确性。现代人工智能系统日益增长的复杂性常常超出人类理解能力,在情报评估过程中造成了重大的问责缺口。因此,成功的整合需要仔细考量现有分析员的工作流程,同时保持人类判断作为最终的决策权威。这确保了在关键情报行动中,人工智能是增强而非取代人类专业知识。
有效的缓解策略可以将数字对手智能体作为评估敌方意图和可能行动方案的宝贵工具,成功地整合到情报行动中。技术挑战需要有针对性解决方案来确保系统可靠性与准确性。稳健的数据验证协议通过建立质量阈值和多源交叉验证,来处理不完整的历史情报。分类防护措施通过实施自动化安全检查与人工审查流程,防止无意间泄露信息。可扩展的计算架构能够容纳复杂的行为建模,而不会压垮现有基础设施。多样化的训练数据集捕捉了跨作战环境和地理区域的对手行为模式的全部谱系。
操作整合需要仔细关注分析员工作负荷和组织文化。结构化的培训计划有助于分析员理解系统能力和局限,同时建立对恰当工具使用的信心。人机协作协议可以将数字对手智能体定位为分析支持的工具,而非决策替代品。经验丰富的分析员保持对情报评估的主要权限,同时利用增强的处理能力进行复杂模式识别。分阶段逐步实施进一步允许组织适应这种新的情报分析方法。
持续改进过程也确保了数字智能体的长期有效性。定期的系统更新应对不断演变的对手战术和新兴威胁模式。性能监控能在其影响作战之前识别性能退化或潜在反制措施。反馈机制捕捉分析员的见解,以改进系统准确性和可用性。
人工智能正在从根本上改变情报官理解、分析和预测对手行为的方式。本文重点探讨了如何利用人工智能创建数字敌方指挥官,从而前所未有地洞察敌方意图与行为。创建数字对手智能体不仅代表技术进步;它构成了军事情报方法的一次重大转变,使情报官能够理解并预测敌方指挥官的行为。
数字对手智能体的发展为情报官提供了与敌方指挥官进行虚拟磋商的能力,测试拟议的行动方案并获得即时的敌方回应。这种人工智能应用使情报专业人员能够通过实际采纳敌方领导者的思维模式,超越传统的分析局限。情报官得以获知可用于实时的敌方思维模式、决策过程和战略偏好。
数字对手的影响超越了它们为情报官提供的即时战术优势。由数字敌方指挥官支持的情报官获得了持续分析敌方行为、预测对手对己方行动的反应以及识别传统分析常遗漏的战略弱点的能力。数字对手使己方部队能够更快地应对敌方行动,更准确地预判敌方意图,并在军事行动各个层面制定更有效的战略规划。
开发一个数字智能体所需的数据集非常全面,足以确保其生成建议的高度可靠性。随着它们通过持续接触新的情报输入并对照实际敌方行为进行验证而不断学习,这些数字智能体将成为对手指挥思维日益复杂的表征。
对于现代情报官而言,数字对手智能体是在全球安全环境中取得分析优势不可或缺的工具。随着中国等对手推进其自身军事人工智能能力的发展,美国及其盟友必须利用这些技术来保持其情报优势。将数字智能体与情报条令相结合,为革命性地改进对敌方威胁的理解与反制奠定了基础。
军事情报的未来在于人类专业知识与人工智能能力的融合。情报官是数字对手的洞察力与指挥决策之间的接口。数字敌方指挥官将成为情报官工具箱中必不可少的工具。它们将提供新的能力,以前所未有的准确度预判对手的思维和预测敌方行动,这是传统情报分析无法达到的水平。这一转变将军事情报置于将塑造21世纪战争未来的技术创新的最前沿。
在军事行动中,决策制定通常涉及在不确定性和复杂性条件下评估多个行动方案,这需要强有力的工具来支持规划者完成这一关键过程。为此,本研究引入了一个集成模糊层次分析法用于行动方案比较的多智能体系统,为决策制定提供了一种动态和分布式的途径。该系统通过相互作用的自主智能体对决策环境进行建模,每个智能体代表决策者、作战变量和背景因素。通过融入模糊层次分析法,该系统将层次分析法的结构化框架与模糊逻辑处理不确定性的能力相结合,使得智能体能够协作评估层次化决策标准。这些标准包括关键的技术和作战因素,使用专家判断和不确定参数的模糊表示进行评估。这种方法促进了行动方案智能、细致且自适应的比较,确保了多准则场景下的灵活性和一致性。实验结果表明,所提出的多智能体系统模型不仅提高了行动方案评估的准确性和可解释性,而且能有效适应不断变化的作战条件,提供可操作且可靠的见解。这项工作有助于推进基于人工智能的军事行动决策支持工具的发展,以应对动态和不确定环境中行动方案评估的复杂性。
考虑到快速演变的地缘政治格局、技术进步以及现代冲突的非对称性质,军事行动正变得日益复杂和不确定。这种日益增长的复杂性要求决策过程能够整合大量数据和知识,适应不可预测的场景,并在时间紧迫的条件下融合来自多方的不同观点。传统方法往往难以在此类高风险环境中提供所需的透明度、适应性和可靠性。为此,开发负责任、透明且可信赖的人工智能模型代表了一种可靠的替代方案。这些模型已在各种应用和活动中展现出宝贵成果,既能通过提高行动准确性和速度来支持决策,又能确保军事行动的伦理和作战维度得到充分考虑。通过构建促进问责制和可解释性的人工智能系统,军事行动可以在效率与法律、社会、伦理合规性之间取得平衡,从而增强复杂作战环境中人工智能赋能策略的信任度和可靠性。
具体而言,关于捕捉各种军事活动和任务的多样性、模糊性和复杂性,定义、分析、比较和选择最有效的行动方案是规划军事行动时的一项重要任务,因为任务的成功往往取决于在复杂和不确定条件下评估和比较多种备选方案的能力。军事环境的动态性使得这一决策过程进一步复杂化,需要同时考虑诸如简洁性、机动性、安全性、突然性、隐蔽性和相称性等标准。考虑到这些方面,开发相应的人工智能模型来处理这些决策过程,近年来已与该领域的研究者和实践者息息相关。为此,基于人工智能的决策支持系统,特别是那些考虑多准则决策方法的系统,提供了一种结构化的方法来应对这些挑战,这些方法能够同时处理专家知识和数据。为此,本研究构建了一个用于行动方案比较和选择的多智能体系统,该系统应用了模糊层次分析法这一稳健方法。这样做是为了通过模糊逻辑来整合和容纳主观的专家判断以及不确定性。此外,采用这种方法是因为:(i)其在处理各种决策过程中的不确定性和模糊性问题时取得了有价值的成果;(ii)能够以自适应方式捕捉和结构化决策过程中需要考虑的多项准则;(iii)有可能将这种方法集成到所提出的多智能体系统的协作和分布式环境中。通过系统地捕捉准则和备选方案的成对比较、将语言评估转化为模糊隶属度函数、并聚合专家意见,模糊层次分析法确保了决策过程的透明度、可靠性和适应性。该方法包括权重归一化和一致性检验以确保逻辑连贯性,最终根据其在所有准则上的表现识别出最优行动方案。为证明所提出模型的有效性,基于模糊层次分析法的系统通过一个聚焦反恐行动的用例进行了实施和评估。该系统的设计捕捉了专家角色、操作流程和特定领域需求。同时,进行了鲁棒性分析以评估系统在不同输入条件下的可靠性,确保尽管存在专家判断固有的不确定性,输出仍能保持一致。通过应对作战准则的复杂性并在智能体方法中利用专家输入,所提出的系统有助于当前旨在构建负责任且可信赖的基于人工智能的军事系统,并在动态和不确定环境中提供恰当决策支持的发展。
本文其余部分结构如下。第2节讨论了在此研究背景下进行的相关研究。第3节介绍了构建本研究所提模型所遵循的方法论路径。第4节讨论了所提模型的设计、实施和评估结果。最后,第5节阐述了结论性意见和未来研究展望。