部分国家正计划采购配备人工智能(AI)并能与有人驾驶飞机协同飞行的武装无人机。根据这种"忠诚僚机"概念使用无人机,是战术人机协同的一个实例,并可能在未来的空战中带来军事优势。然而,将人工智能融入武器系统关键功能(选择与打击目标)的运作中,会带来一种伦理风险:即人类将无法对武力的使用行使充分控制,也无法对所造成的任何不公行为承担责任。为降低此风险,一种潜在途径是通过提升其人类监管者的认知能力,对武装及具备人工智能的无人机实施"有意义的人类控制"。从军事伦理角度看,如果使用脑机接口(BCIs)来实现这种提升,能使人类更快干预以防止不公正的、与人工智能相关的伤害,那可能是有益的。然而,正如本文所示,这种益处将被进行赛博格-无人机战争的伦理弊端所抵消:即损害飞行员作为"失去战斗力者"的非战斗员地位,以及损害使用武力中的人类道德主体性。

本文通过聚焦于战术人机协同的一个实例——将武装且具备人工智能的无人机作为忠诚僚机使用,并通过评估使用脑机接口(BCIs)进行赛博格-无人机战争这一假设性构想,推进了关于人工智能与人类增强在战争中应用的伦理辩论。文章第一部分介绍了忠诚僚机概念,并概述了由附近人员监管无人机相较于由远方人员控制无人机的潜在优势。随后讨论了忠诚僚机可能在缺乏有意义人类控制的情况下运作的伦理风险,以及是否可通过增强人类认知来降低此风险。在考虑了脑机接口(BCIs)结合人机团队并实现赛博格对人工智能监管的潜力之后,讨论最终警示了"赛博格-无人机战争"可能引发的两个伦理问题:对被俘飞行员的滥伤,以及赛博格道德主体性的削弱。

成为VIP会员查看完整内容
1

相关内容

军事防务数据板块介绍:系统化采集、存储、管理、分析与军事国防安全相关信息的专用数据板块,其核心在于整合全球新兴国防技术(军事人工智能、无人系统等)、热点案例(俄乌战争、美以伊战争)等方面的最新时讯、研究报告/论文、条令法规、案例分析,为战略研判、情报分析、决策支持等提供知识支撑。
VIP会员
最新内容
《新兴技术武器化及其对全球风险的影响》
专知会员服务
3+阅读 · 今天4:27
《帕兰泰尔平台介绍:信息分析平台》
专知会员服务
10+阅读 · 今天4:20
智能体化世界建模:基础、能力、规律及展望
专知会员服务
6+阅读 · 4月28日
美海警海上态势感知无人系统
专知会员服务
6+阅读 · 4月28日
《复杂系统数据驱动预测建模的数值框架》报告
专知会员服务
12+阅读 · 4月28日
从“会话式人工智能”角度看“Maven智能系统”
专知会员服务
11+阅读 · 4月28日
微信扫码咨询专知VIP会员