Human Label Variation (HLV) refers to legitimate disagreement in annotation that reflects the diversity of human perspectives rather than mere error. Long treated in NLP as noise to be eliminated, HLV has only recently been reframed as a signal for improving model robustness. With the rise of large language models (LLMs) and post-training methods such as human feedback-based alignment, the role of HLV has become increasingly consequential. Yet current preference-learning datasets routinely collapse multiple annotations into a single label, flattening diverse perspectives into artificial consensus. Preserving HLV is necessary not only for pluralistic alignment but also for sociotechnical safety evaluation, where model behavior must be assessed in relation to human interaction and societal context. This position paper argues that preserving HLV as an embodiment of human pluralism must be treated as a Selbstzweck, an intrinsic value in itself. We analyze the limitations of existing preference datasets and propose actionable strategies for incorporating HLV into dataset construction to better preserve pluralistic human values.


翻译:人类标签变异(HLV)指的是注释中正当的分歧,它反映了人类视角的多样性,而不仅仅是错误。长期以来,人类标签变异在自然语言处理中被视为需要消除的噪声,直到最近才被重新定位为提升模型鲁棒性的信号。随着大型语言模型和基于人类反馈对齐等后训练方法的兴起,人类标签变异的作用日益重要。然而,当前偏好学习数据集通常将多个标注压缩为单一标签,将多元视角扁平化为人为共识。保留人类标签变异不仅是实现多元对齐的必要条件,也是社会技术安全评估的需求——在此评估中,模型行为必须结合人类交互与社会背景进行研判。本立场论文主张,将人类标签变异作为人类多元性的具身表现,必须视为一种自在目的(Selbstzweck),即其本身具有内在价值。我们分析了现有偏好数据集的局限性,并提出了将人类标签变异纳入数据集构建的可操作策略,以更好地保留多元人类价值观。

0
下载
关闭预览

相关内容

什么是后训练?大语言模型训练后优化方法综述,87页pdf
《深度学习多标签学习》最新综述
专知会员服务
47+阅读 · 2024年1月31日
专知会员服务
101+阅读 · 2020年7月20日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
自然语言处理NLP之旅(NLP文章/代码集锦)
再谈变分自编码器VAE:从贝叶斯观点出发
PaperWeekly
13+阅读 · 2018年4月2日
从语言学到深度学习NLP,一文概述自然语言处理
人工智能学家
13+阅读 · 2018年1月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
美国军方使用的10种反无人机武器(2026年更新)
专知会员服务
5+阅读 · 今天4:07
认知战与交战性质的改变:神经战略视角
专知会员服务
5+阅读 · 5月8日
相关VIP内容
什么是后训练?大语言模型训练后优化方法综述,87页pdf
《深度学习多标签学习》最新综述
专知会员服务
47+阅读 · 2024年1月31日
专知会员服务
101+阅读 · 2020年7月20日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员