Artificial Intelligence (AI) poses both significant risks and valuable opportunities for democratic governance. This paper introduces a dual taxonomy to evaluate AI's complex relationship with democracy: the AI Risks to Democracy (AIRD) taxonomy, which identifies how AI can undermine core democratic principles such as autonomy, fairness, and trust; and the AI's Positive Contributions to Democracy (AIPD) taxonomy, which highlights AI's potential to enhance transparency, participation, efficiency, and evidence-based policymaking. Grounded in the European Union's approach to ethical AI governance, and particularly the seven Trustworthy AI requirements proposed by the European Commission's High-Level Expert Group on AI, each identified risk is aligned with mitigation strategies based on EU regulatory and normative frameworks. Our analysis underscores the transversal importance of transparency and societal well-being across all risk categories and offers a structured lens for aligning AI systems with democratic values. By integrating democratic theory with practical governance tools, this paper offers a normative and actionable framework to guide research, regulation, and institutional design to support trustworthy, democratic AI. It provides scholars with a conceptual foundation to evaluate the democratic implications of AI, equips policymakers with structured criteria for ethical oversight, and helps technologists align system design with democratic principles. In doing so, it bridges the gap between ethical aspirations and operational realities, laying the groundwork for more inclusive, accountable, and resilient democratic systems in the algorithmic age.


翻译:人工智能(AI)对民主治理既构成重大风险,也带来宝贵机遇。本文提出一种双重分类法来评估AI与民主之间的复杂关系:一是“AI对民主的风险”(AIRD)分类法,识别AI如何可能损害自主性、公平性和信任等核心民主原则;二是“AI对民主的积极贡献”(AIPD)分类法,强调AI在增强透明度、公众参与、治理效率及循证决策方面的潜力。基于欧盟的伦理AI治理路径——特别是欧盟委员会人工智能高级别专家组提出的七项可信AI要求——我们将每项已识别的风险与依托欧盟监管及规范框架的缓解策略相对应。我们的分析强调了透明度与社会福祉在所有风险类别中的横向重要性,并为将AI系统与民主价值对齐提供了结构化视角。通过将民主理论与实际治理工具相结合,本文提出了一个兼具规范性与可操作性的框架,用以指导研究、监管和制度设计,以支持可信且符合民主的AI。该框架为学者评估AI的民主影响提供了概念基础,为政策制定者提供了伦理监督的结构化标准,并帮助技术人员将系统设计与民主原则对齐。由此,它在伦理愿景与实际操作之间搭建了桥梁,为算法时代构建更具包容性、问责性和韧性的民主体系奠定了基础。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
人工智能治理全景综述
专知会员服务
19+阅读 · 2025年8月13日
《人工智能绝不能完全自主》
专知会员服务
28+阅读 · 2025年8月4日
《人工智能灾难性风险概述》2023最新55页报告
专知会员服务
68+阅读 · 2023年10月6日
人工智能与国家政治安全
专知会员服务
66+阅读 · 2022年6月29日
专知会员服务
46+阅读 · 2021年6月25日
最新《可解释人工智能》概述,50页ppt
专知
12+阅读 · 2021年3月17日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员