Despite being regarded as a significant step toward regulating Artificial Intelligence (AI) systems and its emphasis on fundamental rights, the European Union Artificial Intelligence (EU AI) Act is not immune to moral criticism. This research aims to investigate the impact of three major normative theories of ethics (virtue ethics, deontological ethics, and consequentialism) on the EU AI Act. We introduce the concept of influence, confirmed by philosophical and chronological analysis, to examine the underlying relationship between the theories and the Act. As a proxy measure of this influence, we propose using Semantic Textual Similarity (STS) to quantify the degree of alignment between the theories (influencers) and the Act (influencee). To capture intentional and operational ethical consistency, the Act was divided into two parts: the preamble and the statutory provisions. The textual descriptions of the theories were manually preprocessed to reduce semantic overlap and ensure a distinct representation of each theory. A heterogeneous embedding-level ensemble approach was employed, utilizing five modified Bidirectional Encoder Representations from Transformers (BERT) models, built on the Transformer architecture, to compute STS scores. These scores represent the semantic alignment between various theories of ethics and each of the two components of the EU AI Act. The theories were evaluated by using voting and averaging, with findings indicating that deontological ethics has the most significant overall influence.


翻译:尽管被视为规范人工智能系统的重要一步并强调基本权利,《欧盟人工智能法案》仍无法避免道德层面的批评。本研究旨在探究三大规范性伦理理论(德性伦理学、义务论伦理学与后果主义)对该法案的影响。通过哲学与历时分析验证的"影响"概念被引入,以考察理论文本与法案条文之间的潜在关联。作为这种影响的代理度量,我们提出使用语义文本相似性来量化理论(影响源)与法案(受影响体)之间的契合程度。为捕捉伦理一致性的意图层面与操作层面,法案被划分为两个部分:序言部分与法定条款部分。理论文本描述经过人工预处理以减少语义重叠,确保每种理论具有独立表征。研究采用异构嵌入层集成方法,基于Transformer架构构建五个改进版BERT模型,用以计算语义文本相似性分数。这些分数表征了不同伦理理论与《欧盟人工智能法案》两个组成部分各自的语义对齐程度。通过投票与平均加权评估发现,义务论伦理学对该法案具有最显著的整体影响。

0
下载
关闭预览

相关内容

《在单智能体与多智能体AI系统中融入人类合理性》100页
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
《人工智能伦理治理研究报告(2023年)》白皮书发布
专知会员服务
32+阅读 · 2023年12月27日
人工智能伦理计算
专知会员服务
38+阅读 · 2023年10月13日
联合国教科文组织发布《人工智能伦理建议书》
专知会员服务
51+阅读 · 2021年12月7日
专知会员服务
43+阅读 · 2021年9月28日
「因果推理」概述论文,13页pdf
专知
16+阅读 · 2021年3月20日
最新《可解释人工智能》概述,50页ppt
专知
12+阅读 · 2021年3月17日
【混合智能】人机混合智能的哲学思考
产业智能官
12+阅读 · 2018年10月28日
谷歌 AI:语义文本相似度研究进展
AI研习社
22+阅读 · 2018年6月13日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
《在单智能体与多智能体AI系统中融入人类合理性》100页
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
《人工智能伦理治理研究报告(2023年)》白皮书发布
专知会员服务
32+阅读 · 2023年12月27日
人工智能伦理计算
专知会员服务
38+阅读 · 2023年10月13日
联合国教科文组织发布《人工智能伦理建议书》
专知会员服务
51+阅读 · 2021年12月7日
专知会员服务
43+阅读 · 2021年9月28日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员