AI-based systems such as language models have been shown to replicate and even amplify social biases reflected in their training data. Among other questionable behaviors, this can lead to AI-generated text--and text suggestions--that contain normatively inappropriate stereotypical associations. Little is known, however, about how this behavior impacts the writing produced by people using these systems. We address this gap by measuring how much impact stereotypes or anti-stereotypes in English single-word LM predictive text suggestions have on the stories that people write using those tools in a co-writing scenario. We find that ($n=414$), LM suggestions that challenge stereotypes sometimes lead to a significantly increased rate of anti-stereotypical co-written stories. However, despite this increased rate of anti-stereotypical stories, pro-stereotypical narratives still dominated the co-written stories, demonstrating that technical debiasing is only a partially effective strategy to alleviate harms from human-AI collaboration.


翻译:研究表明,基于人工智能的系统(如语言模型)会复制甚至放大其训练数据中反映的社会偏见。除其他可疑行为外,这可能导致AI生成的文本——以及文本建议——包含规范上不恰当的刻板印象关联。然而,关于这种行为如何影响使用这些系统的人所创作的文本,目前知之甚少。我们通过测量在协同写作场景中,英语单词语言模型预测性文本建议所含的刻板印象或反刻板印象对人们使用这些工具所创作故事的影响程度,来填补这一研究空白。我们发现($n=414$),挑战刻板印象的语言模型建议有时会显著提高反刻板印象协同创作故事的比例。然而,尽管反刻板印象故事的比例有所增加,支持刻板印象的叙述仍在协同创作的故事中占据主导地位,这表明技术去偏见仅是缓解人机协作危害的部分有效策略。

0
下载
关闭预览

相关内容

大型语言模型中隐性与显性偏见的综合研究
专知会员服务
16+阅读 · 2025年11月25日
《人工智能:生成式AI的环境与人文影响》最新47页报告
专知会员服务
16+阅读 · 2025年7月15日
人工智能军事决策支持系统中的算法偏见问题
专知会员服务
33+阅读 · 2024年9月11日
【博士论文】语言模型与人类偏好对齐,148页pdf
专知会员服务
32+阅读 · 2024年4月21日
《综述:生成式人工智能对虚假新闻的影响》
专知会员服务
34+阅读 · 2024年4月13日
人工智能模型中公平性追求的综述
专知会员服务
22+阅读 · 2024年3月30日
深度文本匹配在智能客服中的应用
AI100
18+阅读 · 2018年10月24日
NLG ≠ 机器写作 | 专家专栏
量子位
13+阅读 · 2018年9月10日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
Word2Vec与Glove:词嵌入方法的动机和直觉
论智
14+阅读 · 2018年6月23日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月20日
VIP会员
相关VIP内容
大型语言模型中隐性与显性偏见的综合研究
专知会员服务
16+阅读 · 2025年11月25日
《人工智能:生成式AI的环境与人文影响》最新47页报告
专知会员服务
16+阅读 · 2025年7月15日
人工智能军事决策支持系统中的算法偏见问题
专知会员服务
33+阅读 · 2024年9月11日
【博士论文】语言模型与人类偏好对齐,148页pdf
专知会员服务
32+阅读 · 2024年4月21日
《综述:生成式人工智能对虚假新闻的影响》
专知会员服务
34+阅读 · 2024年4月13日
人工智能模型中公平性追求的综述
专知会员服务
22+阅读 · 2024年3月30日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员