People increasingly seek advice online from both human peers and large language model (LLM)-based chatbots. Such advice rarely involves identifying a single correct answer; instead, it typically requires navigating trade-offs among competing values. We aim to characterize how LLMs navigate value trade-offs across different advice-seeking contexts. First, we examine the value trade-off structure underlying advice seeking using a curated dataset from four advice-oriented subreddits. Using a bottom-up approach, we inductively construct a hierarchical value framework by aggregating fine-grained values extracted from individual advice options into higher-level value categories. We construct value co-occurrence networks to characterize how values co-occur within dilemmas and find substantial heterogeneity in value trade-off structures across advice-seeking contexts: a women-focused subreddit exhibits the highest network density, indicating more complex value conflicts; women's, men's, and friendship-related subreddits exhibit highly correlated value-conflict patterns centered on security-related tensions (security vs. respect/connection/commitment); by contrast, career advice forms a distinct structure where security frequently clashes with self-actualization and growth. We then evaluate LLM value preferences against these dilemmas and find that, across models and contexts, LLMs consistently prioritize values related to Exploration & Growth over Benevolence & Connection. This systemically skewed value orientation highlights a potential risk of value homogenization in AI-mediated advice, raising concerns about how such systems may shape decision-making and normative outcomes at scale.


翻译:人们越来越多地在线上同时向人类同伴和基于大型语言模型(LLM)的聊天机器人寻求建议。此类建议很少涉及确定单一正确答案;相反,它通常需要在相互竞争的价值之间进行权衡。我们的目标是刻画LLM在不同寻求建议的语境中如何驾驭价值权衡。首先,我们使用来自四个以建议为导向的Reddit子版块的精选数据集,考察了寻求建议行为背后的价值权衡结构。采用自下而上的方法,我们通过将从单个建议选项中提取的细粒度价值聚合为更高层级的价值类别,归纳性地构建了一个层级化价值框架。我们构建了价值共现网络,以刻画价值如何在困境中共现,并发现不同寻求建议语境中的价值权衡结构存在显著异质性:一个女性聚焦的子版块表现出最高的网络密度,表明存在更复杂的价值冲突;女性、男性和友谊相关的子版块呈现出高度相关的价值冲突模式,这些模式以安全相关的张力(安全 vs. 尊重/连接/承诺)为中心;相比之下,职业建议形成了一个独特的结构,其中安全经常与自我实现和成长发生冲突。随后,我们针对这些困境评估了LLM的价值偏好,发现跨模型和跨语境,LLM始终优先考虑与“探索与成长”相关的价值,而非“仁慈与连接”。这种系统性的价值取向偏斜凸显了AI中介建议中价值同质化的潜在风险,引发了对此类系统可能如何大规模塑造决策和规范性结果的担忧。

0
下载
关闭预览

相关内容

投大模型岗?50道大型语言模型(LLM)面试问题汇总
专知会员服务
24+阅读 · 2025年6月7日
《以人为中心的大型语言模型(LLM)研究综述》
专知会员服务
41+阅读 · 2024年11月25日
揭示生成式人工智能 / 大型语言模型(LLMs)的军事潜力
专知会员服务
31+阅读 · 2024年9月26日
《LLM 时代小模型的作用》综述
专知会员服务
49+阅读 · 2024年9月12日
大模型道德价值观对齐问题剖析
专知会员服务
79+阅读 · 2023年10月3日
多因素问题分析时,如何确立各因素权重?
人人都是产品经理
75+阅读 · 2020年3月4日
知识在检索式对话系统的应用
微信AI
32+阅读 · 2018年9月20日
一文读懂「Attention is All You Need」| 附代码实现
PaperWeekly
37+阅读 · 2018年1月10日
知识图谱 vs. 对话系统专题讨论 - PaperWeekly 社区
PaperWeekly
10+阅读 · 2017年10月18日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员