在谋求获取人工智能优势的同时,也需要平衡潜在风险。美国已发布报告、指南和政策,以确保在国防、工业和学术领域负责任地使用人工智能。其中一个早期例子是,美国国家安全人工智能委员会在其报告中强调了“建立对人工智能系统的合理信心”的必要性,同时也承认“美国将通过执行现有程序……来部署安全可靠的人工智能”。然而,对于军事应用的人工智能赋能能力,现有程序仍需要在全生命周期内进行调整和增强。

为开始理解确保人工智能可信赖的可能解决方案,本文将现有的稳健流程和程序归纳为六大支柱:人机系统整合、数据保障、系统安全性、测试评估与验证确认、可靠性以及系统发布流程。这些支柱此前在美国陆军作战能力发展司令部军备中心的工作中已被识别,旨在制定路线图和举措,以减轻人工智能赋能能力开发和部署过程中可能产生的风险。本文将随后阐述这些支柱如何构成可靠、负责任人工智能的壁垒,并讨论在设计和部署可信赖的人工智能赋能能力过程中,为满足这些支柱要求所开展的工作和进展。这些概念的广泛应用及提议的风险缓解措施可适用于国际合作伙伴,以响应北约对制定共享规范与标准以确保负责任人工智能开发与部署的需求。

确保可信人工智能赋能系统的支柱

尽管最初的努力制定了一份包含数百项举措的路线图,但事实证明其过于繁复,难以有效沟通,更重要的是,难以聚焦和执行。因此,对该工作成果进行了提炼,形成了所谓的“可信赖与确保人工智能赋能系统支柱”。识别出的六大支柱如图所示,分别是:军备人机系统整合、数据保障、系统安全性、测试评估与验证确认、可靠性以及系统发布。

图1:可信赖与确保人工智能赋能系统的支柱。

这些支柱代表了广泛的科学与工程领域,它们共同识别和应对跨领域的风险,从而产生一个可信赖且可确保的产品。尽管每个支柱代表独特的领域,但风险及相关缓解措施的实施是交叉的,可能影响多个领域,因此各支柱之间仍存在相互影响。总的来说,这些支柱代表了成熟的领域,但新增的“数据保障”这一较新领域至关重要,其旨在开发评估和治理数据的工具、能力和方法学研究,以降低对系统与任务成功构成的风险。纳入“系统发布”这一支柱(它更像是一个管理特性,而非其他科学与工程领域),意在强调其他要素在孤立状态下是不足够的。必须收集相关信息、制品和证据,并与适当的利益相关方沟通,以便就系统的部署做出明智决策。关于这些支柱的核心要旨以及为专门针对人工智能赋能系统进行调整和塑造而在这些领域所做的努力,更多细节可见下文各分节。

成为VIP会员查看完整内容
4

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《提高决策支持系统透明度的可解释人工智能》最新100页
专知会员服务
51+阅读 · 2024年11月28日
《可信人工智能: 将人工智能融入美国陆军知识体系》
专知会员服务
151+阅读 · 2023年4月12日
《人工智能安全测评白皮书》,99页pdf
专知
36+阅读 · 2022年2月26日
最新《可解释人工智能》概述,50页ppt
专知
12+阅读 · 2021年3月17日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
Arxiv
0+阅读 · 2月18日
VIP会员
相关VIP内容
《提高决策支持系统透明度的可解释人工智能》最新100页
专知会员服务
51+阅读 · 2024年11月28日
《可信人工智能: 将人工智能融入美国陆军知识体系》
专知会员服务
151+阅读 · 2023年4月12日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员