While stereotypes are well-documented in human social interactions, AI systems are often presumed to be less susceptible to such biases. Previous studies have focused on biases inherited from training data, but whether stereotypes can emerge spontaneously in AI agent interactions merits further exploration. Through a novel experimental framework simulating workplace interactions with neutral initial conditions, we investigate the emergence and evolution of stereotypes in LLM-based multi-agent systems. Our findings reveal that (1) LLM-Based AI agents develop stereotype-driven biases in their interactions despite beginning without predefined biases; (2) stereotype effects intensify with increased interaction rounds and decision-making power, particularly after introducing hierarchical structures; (3) these systems exhibit group effects analogous to human social behavior, including halo effects, confirmation bias, and role congruity; and (4) these stereotype patterns manifest consistently across different LLM architectures. Through comprehensive quantitative analysis, these findings suggest that stereotype formation in AI systems may arise as an emergent property of multi-agent interactions, rather than merely from training data biases. Our work underscores the need for future research to explore the underlying mechanisms of this phenomenon and develop strategies to mitigate its ethical impacts.


翻译:尽管刻板印象在人类社会互动中已有充分记载,人工智能系统通常被认为不易受此类偏见影响。先前研究主要关注从训练数据中继承的偏见,但刻板印象能否在AI智能体互动中自发产生值得进一步探索。通过一个模拟职场互动、具有中性初始条件的新型实验框架,我们研究了基于大语言模型的多智能体系统中刻板印象的涌现与演化。我们的研究发现:(1) 基于大语言模型的AI智能体在互动中会形成刻板印象驱动的偏见,尽管初始状态并无预设偏见;(2) 刻板印象效应随着互动轮次和决策权力的增加而加剧,在引入层级结构后尤为明显;(3) 这些系统表现出与人类社会行为类似的群体效应,包括光环效应、确认偏误和角色一致性;(4) 这些刻板印象模式在不同大语言模型架构中均稳定呈现。通过全面的定量分析,这些发现表明AI系统中的刻板印象形成可能是多智能体互动中涌现的特性,而不仅仅是训练数据偏见的产物。我们的研究强调未来需要探索这一现象的内在机制,并制定减轻其伦理影响的策略。

0
下载
关闭预览

相关内容

大型语言模型中隐性与显性偏见的综合研究
专知会员服务
16+阅读 · 2025年11月25日
Agent AI:多模态交互的新地平线
专知会员服务
21+阅读 · 2025年5月26日
人工智能军事决策支持系统中的算法偏见问题
专知会员服务
33+阅读 · 2024年9月11日
《人工智能辅助决策面临的三大挑战》
专知会员服务
85+阅读 · 2023年12月15日
【人机融合智能】人机融合智能的现状与展望
产业智能官
11+阅读 · 2020年3月18日
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
44+阅读 · 2019年10月16日
面向人工智能的计算机体系结构
计算机研究与发展
14+阅读 · 2019年6月6日
人工智能训练师的再定义
竹间智能Emotibot
10+阅读 · 2019年5月15日
一文读懂智能对话系统
数据派THU
16+阅读 · 2018年1月27日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月9日
Arxiv
0+阅读 · 1月31日
Arxiv
0+阅读 · 1月20日
VIP会员
相关资讯
【人机融合智能】人机融合智能的现状与展望
产业智能官
11+阅读 · 2020年3月18日
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
44+阅读 · 2019年10月16日
面向人工智能的计算机体系结构
计算机研究与发展
14+阅读 · 2019年6月6日
人工智能训练师的再定义
竹间智能Emotibot
10+阅读 · 2019年5月15日
一文读懂智能对话系统
数据派THU
16+阅读 · 2018年1月27日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
相关基金
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员