Ideas generated by independent samples of humans tend to be more diverse than ideas generated from independent LLM samples, raising concerns that widespread reliance on LLMs could homogenize ideation and undermine innovation at a societal level. Drawing on cognitive psychology, we identify (both theoretically and empirically) two mechanisms undermining LLM idea diversity. First, at the individual level, LLMs exhibit fixation just as humans do, where early outputs constrain subsequent ideation. Second, at the collective level, LLMs aggregate knowledge into a unified distribution rather than exhibiting the knowledge partitioning inherent to human populations, where each person occupies a distinct region of the knowledge space. Through four studies, we demonstrate that targeted prompting interventions can address each mechanism independently: Chain-of-Thought (CoT) prompting reduces fixation by encouraging structured reasoning (only in LLMs, not humans), while ordinary personas (versus "creative entrepreneurs" such as Steve Jobs) improve knowledge partitioning by serving as diverse sampling cues, anchoring generation in distinct regions of the semantic space. Combining both approaches produces the highest idea diversity, outperforming humans. These findings offer a theoretically grounded framework for understanding LLM idea diversity and practical strategies for human-AI collaborations that leverage AI's efficiency without compromising the diversity essential to a healthy innovation ecosystem.


翻译:人类独立样本生成的想法通常比独立大语言模型样本生成的想法更具多样性,这引发了广泛担忧:对大语言模型的普遍依赖可能导致思维同质化,并在社会层面损害创新。借鉴认知心理学,我们从理论和实证两方面识别出削弱大语言模型想法多样性的两种机制。首先,在个体层面,大语言模型与人类一样表现出思维固着现象,即早期输出会制约后续的构思过程。其次,在集体层面,大语言模型将知识聚合为单一分布,而非呈现人类群体固有的知识分区特性——每个人占据知识空间的不同区域。通过四项研究,我们证明针对性的提示干预能独立应对每种机制:思维链提示通过鼓励结构化推理(仅对大语言模型有效,对人类无效)减少思维固着;而普通人物角色(相对于史蒂夫·乔布斯等“创意企业家”)通过作为多样化采样线索,将生成过程锚定在语义空间的不同区域,从而改善知识分区。结合两种方法可产生最高的想法多样性,甚至超越人类表现。这些发现为理解大语言模型想法多样性提供了理论框架,并为人类与人工智能协作提供了实用策略,既能利用人工智能的效率,又不会损害健康创新生态系统所必需的多样性。

0
下载
关闭预览

相关内容

大型语言模型的规模效应局限
专知会员服务
14+阅读 · 2025年11月18日
赋能大型语言模型多领域资源挑战
专知会员服务
10+阅读 · 2025年6月10日
《以人为中心的大型语言模型(LLM)研究综述》
专知会员服务
41+阅读 · 2024年11月25日
《多模态大语言模型评估综述》
专知会员服务
40+阅读 · 2024年8月29日
大语言模型对齐研究综述
专知会员服务
56+阅读 · 2024年8月1日
大型语言模型中的人格综述
专知会员服务
42+阅读 · 2024年6月30日
多模态大模型的幻觉问题与评估
专知会员服务
57+阅读 · 2023年7月28日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
NLP通用模型诞生?一个模型搞定十大自然语言常见任务
人工智能头条
10+阅读 · 2018年6月29日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
最新内容
Palantir AIP平台:连接智能体与决策
专知会员服务
1+阅读 · 55分钟前
《美海军软件测试战略》90页slides
专知会员服务
2+阅读 · 今天1:00
面向具身智能与机器人仿真的三维生成:综述
专知会员服务
1+阅读 · 4月30日
相关VIP内容
大型语言模型的规模效应局限
专知会员服务
14+阅读 · 2025年11月18日
赋能大型语言模型多领域资源挑战
专知会员服务
10+阅读 · 2025年6月10日
《以人为中心的大型语言模型(LLM)研究综述》
专知会员服务
41+阅读 · 2024年11月25日
《多模态大语言模型评估综述》
专知会员服务
40+阅读 · 2024年8月29日
大语言模型对齐研究综述
专知会员服务
56+阅读 · 2024年8月1日
大型语言模型中的人格综述
专知会员服务
42+阅读 · 2024年6月30日
多模态大模型的幻觉问题与评估
专知会员服务
57+阅读 · 2023年7月28日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员