Anthropomorphic language describing artificial intelligence (AI) is widespread in media, policy, and everyday discourse; so too are discussions of AI bad behavior, from hallucinations to inappropriate comments. How does humanizing language about AI shape moral judgments when AI behaves badly? Across four experiments (total N = 1,020), we tested whether lexical anthropomorphism (LA) primes shape judgments of AI moral character, behavior morality, and behavioral responsibility. Studies 1-3 tested interactions between anthropomorphic language and humanizing design cues (icons, names, self-referencing) in the context of amoral errors. Study 4 extended this to genuinely immoral AI behavior across seven moral-violation types. Results indicate humanizing language and design cues have little influence on moral judgments of misbehaving AI. Where effects emerged, high-anthropomorphic primes elevated perceptions of an AI's capacity for dishonesty. The type of moral violation observed was the strongest predictor of moral judgments, with harm and degradation violations producing the broadest negative character assessments. Prime drift, horn effects, and egoistic value orientations emerged as potentially important predictors of AI moral judgments.


翻译:描述人工智能(AI)的拟人化用语在媒体、政策和日常话语中广泛存在;同样,从幻觉到不当评论等AI不良行为的讨论也十分普遍。当AI行为不端时,将AI人性化的语言如何影响道德判断?通过四项实验(总样本量N=1,020),我们检验了词汇拟人化(LA)启动是否会影响对AI道德品格、行为道德性及行为责任的判断。研究1-3在非道德错误情境中测试了拟人化语言与人性化设计线索(图标、名称、自我指涉)的交互作用。研究4将此扩展至涵盖七种道德违规类型的真正不道德AI行为。结果表明,人性化语言和设计线索对行为不端AI的道德判断影响甚微。在出现效应的情况下,高拟人化启动提升了人们对AI不诚实能力的感知。观察到的道德违规类型是道德判断的最强预测因子,其中伤害与贬低类违规产生了最广泛的负面品格评价。启动漂移、晕轮效应及利己价值取向成为AI道德判断中潜在的重要预测因子。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
《综述:生成式人工智能对虚假新闻的影响》
专知会员服务
34+阅读 · 2024年4月13日
人工智能模型中公平性追求的综述
专知会员服务
22+阅读 · 2024年3月30日
人工智能伦理计算
专知会员服务
39+阅读 · 2023年10月13日
【AI与警务】人工智能在打击组织性犯罪方面的挑战
专知会员服务
24+阅读 · 2022年6月28日
人工智能系统可信性度量评估研究综述
专知会员服务
96+阅读 · 2022年1月30日
专知会员服务
43+阅读 · 2021年9月28日
专知会员服务
64+阅读 · 2021年4月16日
【人机融合智能】人机融合智能的现状与展望
产业智能官
12+阅读 · 2020年3月18日
【论文笔记】基于强化学习的人机对话
专知
20+阅读 · 2019年9月21日
【混合智能】人机混合智能的哲学思考
产业智能官
12+阅读 · 2018年10月28日
【智能装备】人工智能对装备制造业的影响分析
产业智能官
10+阅读 · 2018年6月9日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
VIP会员
最新内容
认知战与交战性质的改变:神经战略视角
专知会员服务
5+阅读 · 5月8日
人工智能如何变革军事C5ISR作战
专知会员服务
12+阅读 · 5月8日
相关VIP内容
人工智能伦理风险与治理研究
专知会员服务
20+阅读 · 2025年4月22日
《综述:生成式人工智能对虚假新闻的影响》
专知会员服务
34+阅读 · 2024年4月13日
人工智能模型中公平性追求的综述
专知会员服务
22+阅读 · 2024年3月30日
人工智能伦理计算
专知会员服务
39+阅读 · 2023年10月13日
【AI与警务】人工智能在打击组织性犯罪方面的挑战
专知会员服务
24+阅读 · 2022年6月28日
人工智能系统可信性度量评估研究综述
专知会员服务
96+阅读 · 2022年1月30日
专知会员服务
43+阅读 · 2021年9月28日
专知会员服务
64+阅读 · 2021年4月16日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员