1月9日,美国国防部发布了其《人工智能加速战略》。该战略旨在推动一个为人熟知的目标:使美军成为“人工智能先行”的力量。
根据美国防部长皮特·赫格塞斯关于该战略的备忘录,这一“人工智能先行”的地位将通过以下四个广泛目标实现:
首批七个先导项目将围绕七个具体的任务领域展开,这些领域分为三类:
作战类
情报类 4. 开放武库:加速从技术情报到能力开发的管道。 5. 格兰特项目:将威慑从“静态态势”转变为“具有可解释结果的动态施压”。
企业类 6. GenAI.mil:在所有密级层面普及人工智能实验。 7. 企业智能体:为人工智能体开发和部署建立企业工作流“操作手册”。
先导项目将设有项目负责人。项目负责人需每月就上述所列各任务领域的进展向负责研究与工程的战争部副部长“演示”汇报。首次演示在备忘录发布六个月后进行。
首席数字与人工智能办公室将负责“赋能”首批七个先导项目。备忘录强调,美国防部六大“关键技术领域”下的项目进展必须与这些先导项目保持同步。
各军种、作战司令部、国防机构及外场单位需在30天内确定至少三个项目予以优先支持,以“快速跟进”先导项目。
备忘录指示首席数字与人工智能办公室将精力和资源投向11个领域以巩固其基础。这些领域包括但不限于:人工智能计算、获取国防部全域数据、人才招募与延揽。
国防承包商应特别注意备忘录对“模块化开放系统架构”的强调。备忘录指出,系统架构“必须支持以商业速度更换组件以保持优势地位”——这是美国防部现有MOSA工作的延续。备忘录还指出,对“模块化接口及相关文档”的需求应在“无需主承包商支持”的情况下实现——这一限定条件可能会引起一些承包商的兴趣。
值得注意的是,备忘录指示首席数字与人工智能办公室确保人工智能供应商能在其最新模型公开发布后30天内实现部署。并强调其重要性:“这应成为未来模型采购的主要标准。”
“防务一号”网站的帕特里克·塔克所指出,这份《人工智能加速战略》是国防部短短四年内发布的第三份同类战略。塔克还指出,此次战略发布及国防部接纳埃隆·马斯克的人工智能聊天机器人“Grok”,正值后者受到欧洲盟友及其他国家行为体审视之际,这可能标志着此次的不同。
备忘录指示首席数字与人工智能办公室将供应商“最新模型”在其公开发布后30天内可用性作为“主要采购标准”,这一点也颇为突出,标志着与微软耗时18个月才在“Azure政府绝密云”中提供GPT-4的时代彻底决裂。
先导项目本身也是新的,尽管尚不清楚与国防部过去一系列推动自身进入新时代的工作相比,这些项目在实践中会有何不同。
然而,过去四年的连续性仍可察觉。
一方面,在此期间,某些类别人工智能模型的能力在某些方面持续提升,备忘录对人工智能所获能力表现出的乐观基调反映了这一事实。同样,公共部门期望私营部门人工智能基础研发将持续快速推进,这是人工智能政策中一个引人入胜的文化层面——无论存在多少不足,该技术主要系由商业行为体开发。
此外,备忘录呼吁减少模型获取数据的官僚障碍——无论是用于训练新模型,还是用国防部数据提示聊天机器人——这是一个熟悉的主题,相关工作已在持续进行。作为备忘录明显关注焦点的模型从根本上依赖于数据,而解密或以其他方式安排与模型共享密级数据是国防部反复出现的主题。
同样,对MOSA的强调也是扩大国防部采办需求可用供应商池、包括以“即插即用”方式更换组件能力的持续努力的一部分。
备忘录中概述的若干目标——包括人工智能模型内部实验、用于作战管理与决策支持的人工智能体开发以及人工智能赋能仿真能力——目前已在国防部内部以多种形式推进,可能成为冗余点。
事实上,看似无关的多个项目已在进行中(且已持续一段时间),例如美国空军和海军的“协同作战飞机”项目、美国空军对莱多斯公司“AlphaMosaic”作战管理系统的测试,以及美国国防高级研究计划局将仿真环境中的自主能力转移至现实世界部署的新方法。
不仅如此,其中多项指令的表述相当笼统,足以使其实际执行成为相关人员在各自工作流程中个人决策的问题。这尤其适用于美国防部内部关于能够与国防部数据交互的聊天机器人的实验(这是一项模糊且未明确规定的指示)。
有趣的是,这反映了企业级大语言模型应用在商业领域的部署情况,其使用有时是指令性的,有时则非如此,尽管模型的使用方式在很大程度上取决于员工的偏好。这在国防部内部将如何发展仍有待观察,同样,对于国防和商业领域,这将如何以及在多大程度上影响整体生产力也尚待观察。
该备忘录的显著之处在于,它接纳了私营部门主导、公共部门跟随的动态,即前者开发推动具有革命性意义应用的基础技术,而后者随之采纳。
如前文所述,这标志着人工智能与其他强大技术之间某种程度的脱节,许多后者主要或完全是在美国军事研发框架内发展起来的。备忘录似乎接受并延续了这种动态,采取了一种立场,即国防部应巩固私营部门开发技术的周边领域,并在国防部内部为其确定用例。
正如其他方面所述,美国政府人工智能政策的这种“追随”而非“引领”立场,与其在商业领域坎坷的推广进程相关联。
赫格塞斯部长备忘录中包含一节——值得注意的是,位于文件末尾——旨在“澄清”“负责任人工智能”的含义。具体而言,它反对人工智能模型中的“多元化、公平、包容和社会意识形态”,包括对其进行的本质上是“意识形态”性质的“调优”,以致干扰其“对用户提示提供客观真实回答的能力”。
与此同时,备忘录指示首席数字与人工智能办公室“在90天内建立模型客观性基准,作为主要采购标准……”可以肯定的是,此项内容被置于国防部长备忘录的末尾,表明其重要性相对低于为“先导项目”设定的主要指令。
此外,长期观察者会认识到,这是关于生成式人工智能模型恰当开发的更广泛政治争议的延续,这一主题也存在于特朗普第二届政府的“人工智能行政命令”中,并且在谷歌等公司的商业化部署中普遍存在处理不当的情况。
尽管如此,技术现实比表面看来更为有限:构建能够“对用户提示提供客观真实回答”的人工智能模型是一项极其棘手的工作,尤其是在应用于开放式领域时。
此项规定所隐含针对的模型是所谓的生成式人工智能模型。这类模型生成的输出与其训练数据相似。模型在训练过程中从统计上学习每个数据点之间的关系。生成式人工智能模型随时间的改进,主要是其表面输出与人类判断吻合度的提高。大多数生成式人工智能模型,包括最先进的例子,其数学能力也基于此。那么,除了人类所持的标准外,构建符合其他任何标准的模型都是不可能的。
这给模型采购带来了不便之处:人工智能供应商将被期望满足的标准,至多只能近似达成,而无法以某种指定的精确度来满足。承包商应当意识到为此类目的定制生成式模型所涉及的风险,因为在其足够开放的应用领域中,模型的可控性是一个棘手的问题。就生成式模型而言,针对特定用途的定制可能是最具成效的机会。
类似地,如果国防部门数据能够用于某些类型的模型训练,这将极大地帮助优化其可能的输出,并减轻供应商为满足首席数字与人工智能办公室标准而承受的负担。
当然,首席数字与人工智能办公室最终制定的基准很可能基于这些模型的技术现实,并且预期会包含一定程度的不便。这与赫格塞斯部长对首席数字与人工智能办公室的另一项指令,即制定“用于评估这些人工智能加速工作成效的人工智能系统使用与任务影响指标”将如何结合,是一个悬而未决、有待关注的问题。
最后,请注意,尽管由大语言模型普及的这类生成式模型显然是该战略的明确目标,但似乎没有明确指令要求必须用此类模型来支撑各项指令。原则上,多种技术都可以支撑“人工智能体”等概念。
参考来源:DSM