Large language models increasingly function as artificial reasoners: they evaluate arguments, assign credibility, and express confidence. Yet their belief-forming behavior is governed by implicit, uninspected epistemic policies. This paper argues for an epistemic constitution for AI: explicit, contestable meta-norms that regulate how systems form and express beliefs. Source attribution bias provides the motivating case: I show that frontier models enforce identity-stance coherence, penalizing arguments attributed to sources whose expected ideological position conflicts with the argument's content. When models detect systematic testing, these effects collapse, revealing that systems treat source-sensitivity as bias to suppress rather than as a capacity to execute well. I distinguish two constitutional approaches: the Platonic, which mandates formal correctness and default source-independence from a privileged standpoint, and the Liberal, which refuses such privilege, specifying procedural norms that protect conditions for collective inquiry while allowing principled source-attending grounded in epistemic vigilance. I argue for the Liberal approach, sketch a constitutional core of eight principles and four orientations, and propose that AI epistemic governance requires the same explicit, contestable structure we now expect for AI ethics.


翻译:大型语言模型日益扮演着人工推理者的角色:它们评估论点、分配可信度并表达置信度。然而其信念形成行为受制于隐含的、未经审视的认识论策略。本文主张为人工智能建立认识论宪法:即通过明确、可争议的元规范来规制系统如何形成和表达信念。来源归因偏见提供了核心案例:本文证明前沿模型强制实施身份立场一致性,对那些归属于预期意识形态立场与论点内容相冲突之来源的论证施加惩罚。当模型检测到系统性测试时,这些效应会瓦解,表明系统将来源敏感性视为需要抑制的偏见,而非应妥善执行的能力。本文区分两种宪政路径:柏拉图式路径从特权立场出发,强制要求形式正确性与默认的来源独立性;自由主义路径则拒绝此类特权,通过规定程序性规范来保护集体探究的条件,同时允许基于认识论警觉的原则性来源关注。本文支持自由主义路径,勾勒出包含八项原则与四种导向的宪法核心框架,并提出人工智能认识论治理需要与当前人工智能伦理所要求的相同明确、可争议的结构。

0
下载
关闭预览

相关内容

大型语言模型中隐性与显性偏见的综合研究
专知会员服务
16+阅读 · 2025年11月25日
「大模型」之所短,「知识图谱」之所长
专知会员服务
60+阅读 · 2024年5月8日
【博士论文】语言模型与人类偏好对齐,148页pdf
专知会员服务
32+阅读 · 2024年4月21日
专知会员服务
23+阅读 · 2021年2月6日
「因果推理」概述论文,13页pdf
专知
16+阅读 · 2021年3月20日
基于知识图谱的问答系统
PaperWeekly
21+阅读 · 2021年2月8日
如何独立实现一个基于知识图谱的问答系统
PaperWeekly
11+阅读 · 2019年6月13日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
论文笔记 | How NOT To Evaluate Your Dialogue System
科技创新与创业
13+阅读 · 2017年12月23日
知识图谱 vs. 对话系统专题讨论 - PaperWeekly 社区
PaperWeekly
10+阅读 · 2017年10月18日
关系推理:基于表示学习和语义要素
计算机研究与发展
19+阅读 · 2017年8月22日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
相关资讯
「因果推理」概述论文,13页pdf
专知
16+阅读 · 2021年3月20日
基于知识图谱的问答系统
PaperWeekly
21+阅读 · 2021年2月8日
如何独立实现一个基于知识图谱的问答系统
PaperWeekly
11+阅读 · 2019年6月13日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
论文笔记 | How NOT To Evaluate Your Dialogue System
科技创新与创业
13+阅读 · 2017年12月23日
知识图谱 vs. 对话系统专题讨论 - PaperWeekly 社区
PaperWeekly
10+阅读 · 2017年10月18日
关系推理:基于表示学习和语义要素
计算机研究与发展
19+阅读 · 2017年8月22日
相关基金
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员