As AI chatbots become integrated in education, students are turning to these systems for guidance, feedback, and information. However, the anthropomorphic characteristics of these chatbots create ambiguity over whether students develop trust in them in ways similar to trusting a human peer or instructor (human-like trust, often linked to interpersonal trust models) or in ways similar to trusting a conventional technology (system-like trust, often linked to technology trust models). This ambiguity presents theoretical challenges, as interpersonal trust models may inappropriately ascribe human intentionality and morality to AI, while technology trust models were developed for non-social systems, leaving their applicability to conversational, human-like agents unclear. To address this gap, we examine how these two forms of trust, human-like and system-like, comparatively influence students' perceptions of an AI chatbot, specifically perceived enjoyment, trusting intention, behavioral intention to use, and perceived usefulness. Using partial least squares structural equation modeling, we found that both forms of trust significantly influenced student perceptions, though with varied effects. Human-like trust was the stronger predictor of trusting intention, whereas system-like trust more strongly influenced behavioral intention and perceived usefulness; both had similar effects on perceived enjoyment. The results suggest that interactions with AI chatbots give rise to a distinct form of trust, human-AI trust, that differs from human-human and human-technology models, highlighting the need for new theoretical frameworks in this domain. In addition, the study offers practical insights for fostering appropriately calibrated trust, which is critical for the effective adoption and pedagogical impact of AI in education.


翻译:随着人工智能聊天机器人融入教育领域,学生开始依赖这些系统获取指导、反馈和信息。然而,这些聊天机器人所具备的拟人化特征引发了一个模糊性问题:学生对其产生的信任究竟类似于对同龄人或教师(人类式信任,通常关联于人际信任模型)的信任,还是类似于对传统技术(系统式信任,通常关联于技术信任模型)的信任?这种模糊性带来了理论上的挑战,因为人际信任模型可能不适当地将人类意图和道德属性赋予人工智能,而技术信任模型则是为非社交系统开发的,其对于对话式、拟人化智能体的适用性尚不明确。为填补这一空白,本研究探讨了这两种信任形式——人类式信任与系统式信任——如何比较性地影响学生对人工智能聊天机器人的感知,具体包括感知愉悦度、信任意愿、使用行为意向及感知有用性。通过采用偏最小二乘结构方程模型,我们发现两种信任形式均显著影响学生感知,但效应存在差异。人类式信任对信任意愿的预测力更强,而系统式信任对行为意向和感知有用性的影响更为显著;两者对感知愉悦度的影响程度相近。研究结果表明,与人工智能聊天机器人的互动催生了一种独特的信任形式——人机信任,它既不同于人际信任模型,也区别于人机技术信任模型,这凸显了在该领域构建新理论框架的必要性。此外,本研究为培养适度校准的信任提供了实践启示,这对于人工智能在教育中的有效应用及其教学成效至关重要。

0
下载
关闭预览

相关内容

专知会员服务
112+阅读 · 2020年6月26日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
132+阅读 · 2020年5月14日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员