Harm is invoked everywhere from cybersecurity, ethics, risk analysis, to adversarial AI, yet there exists no systematic or agreed upon list of harms, and the concept itself is rarely defined with the precision required for serious analysis. Current discourse relies on vague, under specified notions of harm, rendering nuanced, structured, and qualitative assessment effectively impossible. This paper challenges that gap directly. We introduce a structured and expandable taxonomy of harms, grounded in an ensemble of contemporary ethical theories, that makes harm explicit, enumerable, and analytically tractable. The proposed framework identifies 66+ distinct harm types, systematically organized into two overarching domains human and nonhuman, and eleven major categories, each explicitly aligned with eleven dominant ethical theories. While extensible by design, the upper levels are intentionally stable. Beyond classification, we introduce a theory-aware taxonomy of victim entities and formalize normative harm attributes, including reversibility and duration that materially alter ethical severity. Together, these contributions transform harm from a rhetorical placeholder into an operational object of analysis, enabling rigorous ethical reasoning and long term safety evaluation of AI systems and other sociotechnical domains where harm is a first order concern.


翻译:危害概念在网络安全、伦理、风险分析乃至对抗性人工智能等领域被广泛提及,然而目前既不存在系统性的、公认的危害清单,其概念本身也鲜有以严肃分析所需的精确性予以界定。当前讨论依赖于模糊且定义不清的危害概念,致使细致、结构化及定性的评估实际上无法进行。本文直面这一空白。我们提出一种结构化且可扩展的危害分类体系,其植根于一系列当代伦理理论,使危害得以显式化、可枚举化并具备分析可操作性。该框架识别出66种以上的具体危害类型,系统性地组织在两个总体领域(人类与非人类)及十一大类别之下,每个类别均明确对应十一种主流伦理理论。该体系虽在设计上具备可扩展性,但其顶层结构保持稳定。除分类外,我们进一步提出一种具备理论意识的受害实体分类法,并形式化定义了包括可逆性与持续时间在内的规范性危害属性,这些属性实质性地影响伦理严重性。这些贡献共同将危害从一个修辞性占位符转变为可操作的分析对象,从而能够对人工智能系统及其他以危害为首要关切的社技领域进行严谨的伦理推理与长期安全性评估。

0
下载
关闭预览

相关内容

认知优势:人工智能在国家安全决策中的核心作用
专知会员服务
13+阅读 · 2025年8月16日
《人工智能军事系统的风险分级监管路径》
专知会员服务
20+阅读 · 2025年7月10日
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
《人工智能安全标准体系(V1.0)》(征求意见稿)
专知会员服务
29+阅读 · 2025年3月23日
《人工智能灾难性风险概述》2023最新55页报告
专知会员服务
68+阅读 · 2023年10月6日
人工智能安全挑战及治理研究
专知会员服务
67+阅读 · 2023年6月18日
《人工智能安全框架(2020年)》白皮书,68页pdf
专知会员服务
167+阅读 · 2021年1月9日
《人工智能安全测评白皮书》,99页pdf
专知
36+阅读 · 2022年2月26日
AI新方向:对抗攻击
网易智能菌
10+阅读 · 2018年11月14日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
认知优势:人工智能在国家安全决策中的核心作用
专知会员服务
13+阅读 · 2025年8月16日
《人工智能军事系统的风险分级监管路径》
专知会员服务
20+阅读 · 2025年7月10日
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
《人工智能安全标准体系(V1.0)》(征求意见稿)
专知会员服务
29+阅读 · 2025年3月23日
《人工智能灾难性风险概述》2023最新55页报告
专知会员服务
68+阅读 · 2023年10月6日
人工智能安全挑战及治理研究
专知会员服务
67+阅读 · 2023年6月18日
《人工智能安全框架(2020年)》白皮书,68页pdf
专知会员服务
167+阅读 · 2021年1月9日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员