摘要

俄乌战争显著加速了人工智能与无人机(或称无人航空系统)融入现代军事行动的进程,正在深刻改变安全与防御范式。以静态物理防御为核心的传统条令,在面对人工智能赋能无人机作战的速率与适应性时,已被证明力有不逮。本文基于近期作战实例,识别出三大理论转变:以人机协同决策为基础,用动态监控网络取代固定防御;通过军事单位与民间行为体的协作实现创新去中心化;以及承认无人机本质是军民两用技术,需构建针对性政策框架。通过剖析乌克兰在资源受限下的适应性策略,本研究凸显了主动探测、预测分析与快速技术迭代的战略优势。研究结果表明,那些将人工智能驱动的预见能力与两用技术预备性纳入其理论体系的国家,将能在技术快速扩散与威胁持续演进的时代,更有效地保障平民人口与关键基础设施的安全。

关键词 人工智能,人工智能赋能无人机,决策,无人机,人机协同,俄乌战争,安全与防御条令,战争

1. 引言

持续进行的俄乌战争揭示出军事创新模式的一个显著转向。面对非对称作战与技术的快速即兴应用,传统的安全与防御条令显得日益滞后。在资源受限的困境下,交战双方——尤其是乌克兰——诉诸于快速、独创的解决方案,从而加速了新兴军事技术,特别是人工智能赋能无人机的发展进程。

战场已成为适应性系统的动态试验场,为安全与防御研究提供了宝贵的实证依据。在此背景下,优先发展主动探测与基于人工智能的态势感知能力,而非仅仅依赖实体防御措施,已成为一项至关重要的需求。因此,俄乌战争或可被视为首次大规模的“无人机战争”,其意义堪比标志空战诞生的第一次世界大战(DeVore, 2023)。若此役标志着全球无人机革命的发端,那么经济实力与军力之间长期存在的关联性或将显著削弱乃至消失(Calcara等人, 2022, p.132)。

近期冲突表明,尽管无人机技术常为民用目的设计,却能迅速转化为军事用途。Caballero-Martin等人(2024)指出,无人机在基础设施检测、灾害预防、环境监测和精准农业等领域已广泛应用——这些功能极易转化为监视、瞄准与打击能力。乌克兰对快速适应的依赖源于现实需要:面对装备占优的对手,其军事单位与民间创新者共同将民用技术与平台改造为有效的战场工具。这种适应性呼应了早期技术变革的趋势,即战时压力加速了创新周期,并模糊了民用与军用领域的界限。

人工智能赋能无人机显然已成为任何防御战略中至关重要且不可或缺的组成部分。有专家对人工智能无人机的颠覆性影响持怀疑态度(Kirichenko, 2025),特别是针对自主无人机蜂群(King, 2024),认为其尚未改变攻防行动的基本潜力。另有观点指出,即便是简单的单向攻击无人机,也已“为更广泛的潜在攻击者提供了新的机遇”,并且“实质上在纵向与横向上扩散了精确打击能力”(Plichta & Rossiter, 2024, p. 1009)。小型无人机目前影响最显著的领域在于辅助角色——作为空中侦察平台,协助士兵定位敌方阵地并引导炮兵火力,从而在降低部队暴露风险的同时,提升了地面行动的效率与精度(Kunertova, 2023)。按需制造与部署此类小型无人航空系统的能力,可能促使学界重新审视对军事创新的理解(Dawson & Nadal, 2024, p. 324),并反思保护人口与基础设施的有效途径。

Tweneboah-Koduah与Buchanan指出,关键基础设施系统因与先进技术融合而变得过度复杂与动态,难以预测;其相互依赖性也模糊了系统边界,增加了界定难度。尽管现有风险评估方法众多,但现代系统的复杂性与相互依赖关系削弱了这些方法的有效性。这要求采用新的风险应对策略,因为不存在单一的通用方案能够解决所有安全挑战(Tweneboah-Koduah & Buchanan, 2018)。俄乌冲突凸显了对后勤基础设施的新兴混合威胁,包括对补给节点的打击、网络攻击、水下破坏以及难以追踪的非对称行动(Slusher, 2025)。不断演进的网络威胁正催生针对政府、能源、医疗、交通、电信等关键服务提供部门的、更具针对性且更复杂的攻击。各国必须在识别与应对所有潜在威胁的同时,制定维持系统韧性的策略(Roshanaei, 2021)。上述双重复杂性使得制定有效的保护策略绝非易事。

《2025年全球和平指数》显示,投资正日益流向尖端领域,如人工智能、无人机与无人潜航器等自主系统、网络战能力、天基资产、先进传感器及精密导弹技术(经济与和平研究所, 2025)。自2022年以来,所有有核国家均维持或扩充了其武库,大国竞争更推动了从人工智能赋能无人机到反太空系统等先进技术的军备竞赛(经济与和平研究所, 2025)。然而,在投资尖端系统的同时,必须审视关键防御条令,以确保采取预见性策略,并最大化相关技术的应用效能。

乌克兰的经验表明,必须认识到三个关键的条令转变:1. 从固定防御转向动态网络。实践证明,结合电子对抗、快速反应打击能力、人工智能辅助监控与决策的灵活分层系统,其效果优于静态防护。2. 推动创新去中心化。鼓励来自前线部队与民间合作伙伴的自下而上的适应性改造,能极大加速技术迭代,并确保与战场实际需求紧密相关。3. 制定军民两用政策规划。认识到军民无人机技术必然重叠,各国应着手准备相应的法律框架与产业政策,以管控并利用这种双重性。这些原则符合历史先例:如同空战发展早期,有效的条令必须与技术可能性同步演进,而非滞后。

本文旨在人工智能赋能无人机威胁的背景下,勾勒当前的安全与防御条令。其主要基于俄乌战争的经验教训,并特别关注体现于人工智能参与决策过程中的人机协作模式转变。

本文的理论框架涵盖了“双重用途理论”。该理论(参见Atlas & Dando, 2006; Miller & Selgelid, 2007)被用作一个分析框架,用以理解某些技术为社会谋福的创新潜力与其(尤其在人工智能与军事创新领域)被滥用的可能性之间的伦理张力(De Agreda, 2020; Grinbaum & Adomaitis, 2024)。协同决策中的人机交互方法,则基于对先进技术(含人工智能)的信任(Glikson & Woolley, 2020; Gillath等人, 2021; Choung等人, 2023)以及人工智能在自动化决策中被接受/抵制的相关概念(Helberger等人, 2020; Araujo等人, 2020; Schaap等人, 2024)。

2. 现代战争中的AI赋能无人机:以俄乌战争为例

无人航空系统已重塑现代战争,而将人工智能集成于无人机技术,将进一步深化这场变革。俄乌战争在各类无人机平台的发展与作战运用上标志着一个质的飞跃。正如Kunertova所述,认识到部署多样化无人机以达成军事目标的价值,已成为这场冲突带来的关键新兴技术启示(Kunertova, 2023)。

乌克兰无人机的发展是多维度、不均衡且多向度的,取决于可用资源、技术巧思以及满足瞬息万变战场需求的必要性。据乌克兰武装部队前总司令扎卢日内称,低成本海上无人机已将俄罗斯黑海舰队逐出其看似固若金汤的克里米亚军港,而无武装无人机则持续执行后勤与医疗后送任务。他强调,这些无人机鲜有传统防务承包商的专有产品;相反,它们大多由商用现货硬件与开源软件组装而成,从而实现了大规模的成本消耗战(Zaluzhnyi, 2025)。

作战条件加速了最初并非为集成人工智能而设计的无人机的性能提升。特别是,乌克兰在电子防护方面的创新改善了近程战术打击系统,而交战双方都扩大了一人称视角(FPV)无人机的使用。自主末制导与线轴机构等升级,使FPV无人机能够抵抗电子干扰。战术无人机虽有其局限性,但目前占据了俄方被毁伤资产的60-70%(Watling & Reynolds, 2025, p.10)。截至目前,仅有部分部署的无人机具备人工智能能力;然而,随着对更高作战效率的需求,这一比例正在并将持续变化。

通过国内研发与国际合作开发的多型人工智能赋能无人机现已服役于乌克兰部队,这反映了其谋求对俄军技术优势的战略(Khomenko, 2024)。2024年12月,乌克兰部队首次完全使用地面无人机与FPV无人机执行了一次攻击,展示了无人作战战术的重大演进(Bendett & Kirichenko, 2025)。此次在哈尔科夫附近展开的行动,混合部署了装备机枪的地面无人机与自杀式FPV无人机。尽管这些平台仍需远程操控并依赖大量人工监控,但它们代表了向更自主作战系统迈出的早期一步。值得注意的是,地面机器人曾于2024年9月用于攻击库尔斯克州的俄军战壕(Axe, 2024a)。

可以预见,人工智能的集成已超越打击平台本身。乌克兰的DELTA战场管理系统利用人工智能快速处理数据,为指挥官提供全面的作战图景,包括可供动能或网络打击的目标库。增强的数据共享与无人指挥控制中心已适应战争需求而发展,进而将数据、人工智能与无人机作战常态化(Zaluzhnyi, 2025)。鉴于乌克兰在长达1200公里的战线上面临显著的人力劣势,这些能力至关重要。

关于是否已投入完全自主武器系统仍存争议。乌克兰的军事论述常将“自主”系统与“无人”系统或仅具备有限自主功能(如导航与瞄准)的系统混为一谈(Bondar, 2025b)。尽管如此,有分析人士警告称,“蜂群杀手无人机猎杀人类目标的黯淡未来正日益临近”(Chapple, 2024)。另有人认为,截至2025年6月,人工智能无人机革命迫在眉睫的预言仍为时过早。俄乌双方均需更多时间、测试与投入,方能大规模部署人工智能赋能无人机。由于成本更低且更适应当前战场环境,人工智能/机器学习赋能无人机短期内不太可能取代大量的战术FPV无人机(Stepanenko, 2025)。

与此同时,这场冲突创造了多项历史首次:俄乌系统间的无人机空战(Hambling, 2022);FPV无人机摧毁俄军直升机(Axe, 2024b);无人水面艇击沉俄军飞机(Newdick, 2024);向前线重伤乌军士兵空运输血用血液(Kushnikov, 2025);无人机俘获俄军士兵(Zoria, 2025);开发出可携载两架人工智能制导FPV打击无人机、航程达300公里的人工智能赋能“母舰无人机”(Fratsyvir, 2025);人工智能赋能母舰无人机“GOGOL-M”首次执行自主任务(Hambling, 2025b)——此类突破不胜枚举。这些成就不仅展现了无人机技术的进步,也体现了战场应用的创造性。

上述创新对安全与防御具有深远影响。未来的攻击行动可能设计得更加难以预测与反驳。例如,在假想情景中,一架似乎在敏感设施附近拍摄婚礼的无人机,可能正在秘密采集目标数据。人工智能随后可处理此数据以识别弱点。最终,一名外卖员的摩托车停在设施附近,三个装载爆炸物的小型无人机从其包中飞出,瞬间命中目标。

无论是否由人工智能赋能,无人机都可能对和平时期与战时平民人口及关键基础设施的保护产生严重影响。正如Calcara等人(2022)所指,其体积与设计使其能比传统飞机更有效地规避探测,便于渗透敌方防空体系,从而利于进攻行动。其次,其相对低廉的成本与技术简易性降低了获取先进军事能力的门槛,进而削弱了力量不对称性,并可能使较弱的行为体获得赋能(Calcara等人, 2022, p.131)。

可从俄乌冲突中提炼出若干关键教训。实践证明,无人系统在显著降低人员风险的同时,极大地延伸了作战范围。它们使得在通常超出直瞄武器射程的更远距离交战成为可能,并从根本上改变了战术与战役规划(Slusher, 2025)。据DeVore(2023)分析,尽管当前战争数据有限,但可得出两个明确启示:“消耗率与成本因素的核心地位,以及快速适应周期相较于精密设计武器的重要性”(DeVore, 2023)。这场战争推动了无人机扩散,并印证了其面向更多行为体时,在隐身性、速度、杀伤力与可及性方面持续增强的趋势(Kunertova, 2023)。乌克兰快速无人机创新的其他洞见包括:快速简易的测试、前线本地化的研发,以及开发过程中强大的本地参与性(Bondar, 2024)。

俄乌战争所显现的三大转变,似乎对新时期的有效防御活动至关重要。适应性与去中心化创新已被证明具有决定性。解决方案的快速适应及其在战场上的持续测试,部分抵消了交战双方在资源上的不对称性。主要依托众多独立举措部署的创新去中心化,使得乌克兰开发者能够更快地改进人工智能赋能无人机。

乌克兰的模式赋能单个单位与作坊快速实验、改装与部署解决方案。相比之下,俄罗斯更为集中与层级化的模式则阻碍了其敏捷性(DeVore, 2023)。民间与私人倡议在乌克兰的无人机发展中扮演了核心角色,商用平台被改造用于作战。据Schmid与Mueller(2025)分析,乌克兰最重要的制度创新之一是创建了Brave1计划,该计划将前线需求与国内外技术开发者联系起来。Brave1已发放超过400项、总额逾8亿乌克兰格里夫纳(约合1900万美元)的资助,并支持了Swarmer无人机与Griselda情报系统等项目(Schmid & Mueller, 2025)。

决策者似乎低估了一个重要威胁:人工智能赋能无人机的双重用途。民用领域的最新发展催生了众多最初为非军事应用设计、看似无害的技术。其现代应用广泛,包括:无人机为提升投送效率而自主优化航迹与路线;实现精准农业、监测与自主田间作业;进行自主检查、监测与实时威胁检测;在偏远或难以抵达区域执行任务;作为空中节点扩展网络覆盖不佳区域的连接性;在复杂环境中动态调整航线(Caballero-Martin等人, 2024)。然而,其中大多数和平用途经改造后,均可用于影响平民人口与关键基础设施。例如,经过微小改动,本用于防范气候变化威胁以保护森林,或在灾害中拯救生命的技术,亦可被用于摧毁敏感目标。

这些潜在发展对现有的人工智能赋能无人机设计、部署与使用规范构成了挑战。恰如所言,乌克兰的经验凸显了适应性措施的必要性,包括军事与两用出口管制,以跟上无人机能力快速发展的步伐(Kunertova, 2023)。高加索与利比亚的无人机战争经验表明,军用无人航空系统的政治供应会加剧不稳定,向非国家行为体提供技术则会放大显性威胁,而新冠疫情后对商用无人机监管的放松可能引发更多安全漏洞(Rogers, 2021)。

在此不断变化的环境中,跨部门创新、军民协作、持续的人工智能解决方案测试以及适应性,对于保护人员与基础设施至关重要。人工智能赋能无人机的双重用途性质,突显了构建能够跟上技术变革步伐的、健全的法律、伦理与监管框架的紧迫性。若未能认识到这些转变,利用那些使人道援助、环境监测与救灾成为可能的能力,以前所未有的精度与不可预测性瞄准平民人口与关键基础设施,将变得相对容易。此外,在现代冲突中,仅依赖物理防护已不足够。人工智能赋能的威胁预警、模式识别与实时分析提供了更具韧性的途径,使部队能在威胁成形前探测、跟踪并予以消除。这种主动模式要求将无人机监视与预测分析相结合,以绘制敌方运动规律、识别潜在攻击向量并动态调配防御力量。正如乌克兰案例所示,将人工智能与无人机侦察相融合,缩短了反应时间,优化了资源分配,并增强了战略与战术决策效能。

3. 人机交互与协同决策

3.1. 人机协同决策中的适应性

尽管人与机器的融合被许多人视为难题,特别是在公共决策领域(例如,Levy等人, 2021; Alon-Barkat & Busuioc, 2023; Decker等人, 2025),但在保护平民人口与关键基础设施所需的作战决策中,协同模型可能被证明大有裨益。

随着人工智能工具的改进及其融入决策过程各阶段,人类与自动化智能体之间的界限日益模糊。确定“决策点”的困难——这是人工智能辅助决策中的常见关切(Crompton, 2021)——意味着此界限将进一步消融。然而,在紧急情况下,促进控制权在人类与人工智能智能体间快速转移可能是有益的。这种灵活性在许多安全与防御场景中至关重要,因为作战控制可能需要迅速在人类与人工智能之间切换。

特别是在和平时期保护关键基础设施,需要对包括人工智能赋能无人机在内的新兴威胁做出快速响应。在战时,此类保护措施可能延伸至敌方领土,这可能反而需要主动使用无人机,而非仅对其进行防御。决策过程中的人机交互增强了应对威胁的适应性,由此催生了协同决策模型。

俄乌战争中的一个显著案例是“蜘蛛网”行动,乌克兰在其中运用人工智能赋能无人机打击了数千公里外的俄军机场(Mazhulin等人, 2025)。为此次行动,人工智能已利用乌克兰露天博物馆的旧飞机进行训练,以最大化目标命中精度。任务全程,控制权在人类操作员与人工智能系统之间多次切换。蜘蛛网行动中存在一种混合控制回路:飞行员通过俄罗斯的LTE网络操控FPV无人机(Bondar, 2025a),若链路质量下降或受干扰,机载自主系统(包括人工智能视觉/目标辅助)将接管以保持任务进行。当链路恢复,人类重新获得手动控制——有时在末端锁定/俯冲阶段再将控制交予人工智能。无人机还使用了备用人工智能瞄准功能,在某些情况下成功引导无人机命中目标飞机(Hambling, 2025a)。此外,在控制信号暂时丢失时,部分无人机自动切换至人工智能模式以完成任务(Panella, 2025)。

协同的另一案例可能是在“最后阶段”使用人工智能控制。据自由欧洲电台/自由电台采访的Brave1发言人透露,装备人工智能辅助瞄准模块的无人机在交战阶段无需与操作员保持持续链路。一旦操作员锁定目标,人工智能将自主接管瞄准控制,此过程可抵御敌方电子战措施的干扰(Chapple, 2024)。这些案例表明,在战时,人机紧密交互是出于紧急需要而自然产生的进程。

然而,无论效率多高,人工智能辅助决策也引发了若干有充分依据的合理关切。其中首要的是责任问题(后文将详述),以及偏见、不透明性与公众信任等问题。Ng与Gray(2022)指出,关于人工智能(尤其在司法领域)能做出“客观”判断的说法值得怀疑;此类断言令人联想到早前关于功利主义或经济法律理论是否能产生数学上精确且可论证的裁决的辩论(pp. 667-668)。同样,Buchelt等人(2024)观察到,最先进的机器学习模型通常过于复杂、高维且非线性,以至于难以进行有意义的解释,几乎无法追溯特定结果的达成路径。Buchelt进一步建议,可解释人工智能可通过提供决策透明度、支持责任判定及实现更精准的操作,来提升信任与安全。在环境监测与森林管理等领域,XAI可增强影响分析与运营效率。应用于无人机时,基于XAI的方法能确保理解人工智能系统选择特定航线或行动的原因,从而为安全程序与系统改进提供依据。

同时,转向人机协同决策模型将需要持续的公众信任。公众对利用人机协作保护平民人口与关键基础设施的信任,与更广泛层面上对人工智能在决策中角色的认知密切相关。Haesevoets等人(2024)发现,人们通常更倾向于人工智能扮演顾问角色,而非共享或掌握主要决策权。尽管如此,人工智能日益融入决策的趋势使得更深入的人机协作成为可能。

Schlicker等人(2021)报告称,当由人类而非人工智能做出决策时,人际公平感知更高;且来自人类代理的解释往往能改善信息公平感知——而来自自动化系统的解释则无此效果。关于公众对政府部署算法的接受度的研究强调,这些系统运行于特定的社会技术情境中。公民的接受度极大程度上取决于其如何看待算法所解决问题的紧急性,以及对部署机构的信任程度(Wenzelburger等人, 2024)。有趣的是,Horowitz等人(2024)发现,对人工智能的熟悉程度对支持其军事应用影响甚微——并且对此类应用的反对随时间推移略有增加。然而,相较于公共决策领域,在战时,与军事事务相关的决策中更多地出现人工智能,可能更易为社会所接受。

Holzinger等人(2023)强调,大规模高质量数据集的可用性与计算能力的增长,仍是人工智能发展的核心驱动力。鉴于人工智能已在某些处理过程中超越人类认知能力,防御人口与基础设施免受新兴威胁将日益依赖于技术解决方案。

在作战背景下——无论是和平时期预防威胁,还是战时应对侵略——人机协同决策模型被证明极为有效。尽管“慢节奏”决策(如诉讼中的决策)可能因人类参与减少而受损,但“快节奏”的作战决策却能从此类协作中显著获益。以人机协同决策为基础的动态监控网络取代静态防御,或将在新威胁背景下,为保护平民人口与关键基础设施做出重大贡献。

3.2. 人机交互中的责任

人机协作在决策过程各阶段均扮演关键角色:从初始态势评估与初步分析,到后续安全与防御措施的落实、必要时的调整、事后评估及最终解释。必须指出,全过程需在系统自主性与人类控制之间保持恰当平衡。

人工智能辅助决策中最具争议的问题之一涉及自主武器的部署——特别是当致命决定在缺乏直接人类监督的情况下做出时。人工智能的最新进展极大促进了自主性融入武器系统,增加了此类系统独立判定致命目标的可能性。联合国安理会2021年的一份报告指出,在利比亚内战期间可能已使用了具备此种能力的无人机(联合国安理会, 2021)。

Rogers(2021)认为,无人机战争早期的伦理争议随着远程操控致命机器人的扩散而加剧。追究无人机相关暴行(无论故意或意外)责任的困难,制造了一种具有重大政治、法律与战略影响的“合理否认”条件。在众多不同行为体使用相似或相同系统的环境中,追责或有效回应变得日益复杂。这第二个“无人机时代”对全球安全、稳定及大国关系具有更广泛的意涵。

界定人工智能“责任”的确切范围仍是核心难题(参见,例如,Busuioc, 2021; Cobbe等人, 2023; Cheong, 2024)。指导政策制定者理解人工智能治理中责任的公认目标包括:合规、报告、监督与执行。这些目标旨在确保智能体在伦理与法律范围内行事,记录其行为并证明其正当性,允许审查与证据收集,并根据调查结果确定后果,如制裁、授权或禁令(Novelli等人, 2024, p. 1882)。Busuioc(2021, p. 827)将“有意义之责任”概念化为一个三阶段过程:信息提供、解释或辩护,以及承担后果的可能性。

在此框架下,创建可解释人工智能成为人机协作中辩护阶段的核心组成部分。恰如所指,当人工智能系统产生的决策偏离其预定目标或对特定群体有害时,理解这些决策背后的推理对于纠正干预至关重要(Holzinger等人, 2023)。在发生意外事件或事故时,XAI阐明无人机行为的能力对于责任认定、确保合规及维护伦理标准具有重要价值。通过揭示行为背后的逻辑,专家可微调人工智能系统以持续改进其性能(Buchelt等人, 2024)。

迄今为止,在协同决策中保持监督并减轻最严重风险的关键保障措施是“人在环中”方法。此原则要求将人类判断与指导融入人工智能的开发与运作,以确保为实现共同目标而进行有效、高效的人机合作(Holzinger, 2023)。然而,一个重要警告是:人类本身存在偏见,其判断易受人工智能输出的影响。有研究表明,当人工智能系统出错时,人类监督者可能盲目接受其建议,显示参与者在得到错误算法支持后,其判断准确性会下降,尤其是在形成自身观点之前(Agudo等人, 2024),这导致了自动化偏见。此现象可能导致放大而非纠正人工智能的错误。由于战略性安全与防御项目常需大规模解决方案,上述问题可能进一步加剧,增加了“人在环中”系统固有的可扩展性难题。

另一方面,某些防御场景将需要相当程度的人工智能自主性。Tucker(2024)指出,乌克兰战争的主要教训之一是战场发展的快速节奏。关于致命自主权的政策因国而异,并可能因应前线条件迅速转变。随着对手在切断人机链路方面变得更有效率,对更强自主能力的需求可能会增长。

总而言之,尽管人机协同决策可能比其他人工智能辅助过程需要更高的算法信任,但此种信任绝不能以牺牲责任为代价。此类责任的关键要素包括:保持人在环中,同时防止技能与专业知识流失,并遏制自动化偏见;维持操作控制权在人类与人工智能智能体间快速转移的能力;以及确保决策的可解释性。

4. 新的安全与防御条令

将人工智能赋能无人机整合至现代战争——涵盖进攻与防御行动——要求对安全与防御条令进行根本性重估。新条令应优先遵循主动性、决策适应性、可追责性、公众信任、人类监督与控制,以及吸纳私营和/或民间倡议等原则。此更新且恰当平衡的条令亦须承认,传统的安全与防御理念已不再充分。

人工智能赋能无人机的使用所制造的威胁,正印证了这种不充分性。尽管人工智能赋能无人机仍面临发展局限,如视觉遮挡、背景干扰、传感器分辨率受限,以及包括电池容量有限、易受天气影响、标准化与公开可用数据集存在缺口在内的操作挑战,但其综合潜力仍相当可观(Aliane, 2025)。没有理由认为上述局限在可预见的未来不会得到克服,而这将加剧威胁。

公众信任——这一在安全与防御战略中看似不那么显见的原则——正随着人工智能技术日益复杂而愈发重要。公众的信任不仅依赖于透明的治理与公民反馈机制,也取决于对人工智能(特别是人工智能赋能无人机)能力的认知提升。教育公民如何利用人工智能参与国防(包括军事与民事),有助于建立信任并鼓励更广泛的参与。据Bondar(2025b),培训平民在紧急情况下操作人工智能辅助无人机,可进一步增强公众参与度。无人机培训项目正日益整合自主导航与瞄准功能,使操作员能在短时间内(通常不足一日)掌握人工智能辅助模式,从而扩大合格人员储备,提升战备水平(Bondar, 2025b)。

安全与防御领域(尤其是在保护关键基础设施方面)的主要挑战包括:治理与安全管理、安全网络架构设计、自愈系统、建模与仿真能力、大规模态势感知、取证分析、信任管理及隐私保护(Alcaraz & Zeadally, 2015)。为确保对处理敏感基础设施数据的ICT系统的信心,这些系统须满足高可用性、韧性、容错性、可扩展性、自主性、互操作性,以及在异常或威胁事件期间跨异构环境协作等要求(Alcaraz & Zeadally, 2015)。决策适应性——在紧急情况下至关重要——应被增补入此清单。

有效的安全与防御战略亦有赖于稳固的公私伙伴关系。据Yusta等人(2011),此类伙伴关系在保护互联基础设施方面尤为重要。它们应促进利益相关方(包括基础设施所有者、行业代表、政府机构、情报部门、咨询机构及地方或区域当局)之间的事件报告、威胁情报与漏洞评估的共享(Yusta等人, 2011)。Roshanaei(2021)指出,未来关键基础设施保护框架的改进应纳入使用共享指标的标准化绩效评估系统,以便对行动计划与安全措施进行一致性评估。恰当的评估可能需要独立民间倡议的参与。

历史上,许多安全与防御战略依赖风险管理原则。例如,美国的《国家基础设施保护计划》是其中的佼佼者,指导他国设立委员会、工作组与任务小组,负责情景规划、风险评估与预警系统——常为军民当局协作(Yusta等人, 2011)。在现代语境下,基于风险的方法要求强力的主动预防,而这又可能需要人机协同。

军事创新的经验亦为改善对平民人口与关键基础设施的保护提供了借鉴。如Dawson与Nadal以英国皇家空军为例所示,该机构日益增强的风险承担意愿——部分受乌克兰战争推动——有助于简化变革并促进更广泛的组织适应性。然而,早前试验武装化小型无人航空系统的案例揭示,强烈的风险规避文化依然存在(Dawson & Nadal, 2024, p. 346)。然而,情境极为重要,正如Schmid与Mueller(2025)恰当地指出:乌克兰的流程、组织结构与法规无法简单地移植至美国或其他国家。尽管如此,乌克兰的经验提供了两项宝贵经验:(1)更积极地采纳商用技术;(2)利用如Brave1(连接前线需求与技术开发者)这类创新机构,以加速冲突中的武器获取。在战斗持续进行、能力缺口突然显现且局势紧迫性排除了常规采购渠道时,此利用商用技术的策略尤为有利(Schmid & Mueller, 2025)。

变革常遇阻力,部分源于组织惯性。然而,必须认识并进而将上述根本性变革落实于国家安全与防御条令、政策与立法框架之中,以确保在不断演变的威胁环境中保持韧性。

5. 结论 安全与防御的未来日益系于人工智能的发展。无人机中人工智能的广泛应用现实,要求一个新的框架、一种新的安全与防御条令,其必须经过调整以探索这片未知领域。俄乌战争预览了未来冲突的样貌,其中人工智能赋能无人机将在攻防行动中扮演核心角色。相关教训超越乌克兰国界:在一个技术扩散迅速、准入门槛低的时代,对平民人口与关键基础设施的保护将面临日益增长的脆弱性。

无人机的全球扩散,恰如一个世纪前飞机的普及,正在重塑战略力量的基础,这意味着最早适应的国家将为未来的冲突设定标准。为驾驭此局面,安全与防御条令必须超越物理防护,拥抱人工智能驱动的预见力、具备韧性的 人机协同以及军民两用创新。与此同时,亟需建立治理框架与国际规范,以应对自主作战中的伦理风险与责任问题。那些及早适应、将技术远见与稳健政策及军民合作相结合的国家,不仅将为未来冲突设定标准,亦将在加速变革的时代更有效地保障关键基础设施与平民人口的安全。

参考文献

  1. Agudo, U., Liberai, K. G., Arrese, M., Matute, H. (2024). The impact of AI errors in a human-in-the-loop process. Cognitive Research: Principles and Implications, 9, 1. https://doi.org/10.1186/s41235-023-00529-3.
  2. Alcaraz, C., & Zeadally, S. (2025). Critical infrastructure protection: Requirements and challenges for the 21st century. International Journal of Critical Infrastructure Protection, 8, 53–66. https://doi.org/10.1016/j.ijcip.2014.12.002.
  3. Aliane, N. (2025). Drones and AI-Driven Solutions for Wildlife Monitoring. Drones, 9, 455. https://doi.org/10.3390/drones9070455.
  4. Alon-Barkat, S., & Busuioc, M. (2023). Human–AI interactions in public sector decision making: “automation bias” and “selective adherence” to algorithmic advice. Journal of Public Administration Research and Theory, 33(1), 153–169. https://doi.org/10.1093/jopart/muac007.
  5. Araujo, T., Helberger, N., Kruikemeier, S., & De Vreese, C. H. (2020). In AI we trust? Perceptions about automated decision-making by artificial intelligence. AI & Society, 35(3), 611–623. https://doi.org/10.1007/s00146-019-00931-w.
  6. Atlas, R. M., & Dando, M. (2006). The dual-use dilemma for the life sciences: perspectives, conundrums, and global solutions. Biosafety and Bioterrorism: biodefense strategy, practice, and science, 4(3), 276–286.
  7. Axe, D. (2024a). Ukraine’s Gun-Armed Ground Robot Just Cleared A Russian Trench In Kursk. Forbes. September 19, 2024. https://www.forbes.com/sites/davidaxe/2024/09/19/ukraines-gun-armed-ground-robot-just-cleared-a-russian-trench-in-kursk/.
  8. Axe, D. (2024b). A Two-Pound Ukrainian Drone May Have Shot Down A 12-Ton Russian Helicopter. Forbes. July 31, 2024. https://www.forbes.com/sites/davidaxe/2024/07/31/a-two-pound-ukrainian-drone-just-shot-down-a-12-ton-russian-helicopter/.
  9. Bathaee, Y. (2018). The Artificial Intelligence Black Box and the Failure of Intent and Causation. Harvard Journal of Law & Technology, 31(2), 889–938.
  10. Bennett, S., & Kirichenko, D. (2025). Battlefield Drones and the Accelerating Autonomous Arms Race in Ukraine. January 10, 2025. https://mwi.westpoint.edu/battlefield-drones-and-the-accelerating-autonomous-arms-race-in-ukraine/#:~:text=Both%20Ukraine%20and%20Russia%20are%20reducing%20risks%20to%20human%20soldiers.
  11. Bondar, K. (2024). Closing the Loop: Enhancing U.S. Drone Capabilities through Real-World Testing. Center for Strategic and International Studies. August 21, 2024. https://www.csis.org/analysis/closing-loop-enhancing-us-drone-capabilities-through-real-world-testing.
  12. Bondar, K. (2025a). How Ukraine’s Operation “Spider’s Web” Redefines Asymmetric Warfare. June 2, 2025. https://www.csis.org/analysis/how-ukraines-operation-spiders-web-redefines-asymmetric-warfare.
  13. Bondar, K. (2025b). Ukraine’s Future Vision and Current Capabilities for Waging AI-Enabled Autonomous Warfare. Report of CSIS-Wadhwani AI Center. March 6, 2025. https://www.csis.org/analysis/ukraines-future-vision-and-current-capabilities-waging-ai-enabled-autonomous-warfare.
  14. Bucholt, A., et al. (2024). Exploring artificial intelligence for applications of drones in forest ecology and management. Forest Ecology and Management, 551, 121530. https://doi.org/10.1016/j.foreco.2023.121530.
  15. Busuioc, M. (2021). Accountable artificial intelligence: Holding algorithms to account. Public administration review, 81(5), 825–836. https://doi.org/10.1111/puar.13293.
成为VIP会员查看完整内容
5

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
VIP会员
最新内容
人工智能赋能无人机:俄乌战争(万字长文)
专知会员服务
5+阅读 · 今天6:56
国外海军作战管理系统与作战训练系统
专知会员服务
2+阅读 · 今天4:16
美军条令《海军陆战队规划流程(2026版)》
专知会员服务
10+阅读 · 今天3:36
《压缩式分布式交互仿真标准》120页
专知会员服务
4+阅读 · 今天3:21
《电子战数据交换模型研究报告》
专知会员服务
6+阅读 · 今天3:13
《基于Transformer的异常舰船导航识别与跟踪》80页
《低数据领域军事目标检测模型研究》
专知会员服务
6+阅读 · 今天2:37
【CMU博士论文】物理世界的视觉感知与深度理解
专知会员服务
10+阅读 · 4月22日
微信扫码咨询专知VIP会员