部分国家正计划采购配备人工智能(AI)并能与有人驾驶飞机协同飞行的武装无人机。根据这种"忠诚僚机"概念使用无人机,是战术人机协同的一个实例,并可能在未来的空战中带来军事优势。然而,将人工智能融入武器系统关键功能(选择与打击目标)的运作中,会带来一种伦理风险:即人类将无法对武力的使用行使充分控制,也无法对所造成的任何不公行为承担责任。为降低此风险,一种潜在途径是通过提升其人类监管者的认知能力,对武装及具备人工智能的无人机实施"有意义的人类控制"。从军事伦理角度看,如果使用脑机接口(BCIs)来实现这种提升,能使人类更快干预以防止不公正的、与人工智能相关的伤害,那可能是有益的。然而,正如本文所示,这种益处将被进行赛博格-无人机战争的伦理弊端所抵消:即损害飞行员作为"失去战斗力者"的非战斗员地位,以及损害使用武力中的人类道德主体性。
本文通过聚焦于战术人机协同的一个实例——将武装且具备人工智能的无人机作为忠诚僚机使用,并通过评估使用脑机接口(BCIs)进行赛博格-无人机战争这一假设性构想,推进了关于人工智能与人类增强在战争中应用的伦理辩论。文章第一部分介绍了忠诚僚机概念,并概述了由附近人员监管无人机相较于由远方人员控制无人机的潜在优势。随后讨论了忠诚僚机可能在缺乏有意义人类控制的情况下运作的伦理风险,以及是否可通过增强人类认知来降低此风险。在考虑了脑机接口(BCIs)结合人机团队并实现赛博格对人工智能监管的潜力之后,讨论最终警示了"赛博格-无人机战争"可能引发的两个伦理问题:对被俘飞行员的滥伤,以及赛博格道德主体性的削弱。