As AI tutors enter classrooms at unprecedented speed, their deployment increasingly outpaces our grasp of the psychological and social consequences of such technology. Yet decades of research in automation psychology, human factors, and human-computer interaction provide crucial insights that remain underutilized in educational AI design. This work synthesizes four research traditions -- automation psychology, human factors engineering, HCI, and philosophy of technology -- to establish a comprehensive framework for understanding how learners psychologically relate to anthropomorphic AI tutors. We identify three persistent challenges intensified by Generative AI's conversational fluency. First, learners exhibit dual trust calibration failures -- automation bias (uncritical acceptance) and algorithm aversion (excessive rejection after errors) -- with an expertise paradox where novices overrely while experts underrely. Second, while anthropomorphic design enhances engagement, it can distract from learning and foster harmful emotional attachment. Third, automation ironies persist: systems meant to aid cognition introduce designer errors, degrade skills through disuse, and create monitoring burdens humans perform poorly. We ground this theoretical synthesis through comparative analysis of over 104,984 YouTube comments across AI-generated philosophical debates and human-created engineering tutorials, revealing domain-dependent trust patterns and strong anthropomorphic projection despite minimal cues. For engineering education, our synthesis mandates differentiated approaches: AI tutoring for technical foundations where automation bias is manageable through proper scaffolding, but human facilitation for design, ethics, and professional judgment where tacit knowledge transmission proves irreplaceable.


翻译:随着人工智能导师以前所未有的速度进入课堂,其部署速度日益超越我们对这类技术心理与社会影响的认知。然而自动化心理学、人因工程学、人机交互领域数十年的研究提供了关键见解,这些见解在教育人工智能设计中仍未得到充分利用。本研究综合了四个研究传统——自动化心理学、人因工程学、人机交互与技术哲学——建立了一个理解学习者如何从心理层面与拟人化人工智能导师建立关系的综合框架。我们识别出生成式人工智能对话流畅性加剧的三个持续性挑战:首先,学习者表现出双重信任校准失效——自动化偏见(不加批判地接受)与算法厌恶(错误后过度排斥)——伴随专业知识悖论,即新手过度依赖而专家依赖不足。其次,拟人化设计虽能提升参与度,但可能分散学习注意力并助长有害的情感依赖。第三,自动化悖论持续存在:旨在辅助认知的系统会引入设计者错误,通过技能闲置导致能力退化,并造成人类不擅长执行的监控负担。我们通过对人工智能生成哲学辩论与人类创作工程教程的104,984条YouTube评论进行对比分析,为这一理论综合提供实证基础,揭示了领域依赖的信任模式以及即使线索极少仍存在的强烈拟人化投射。对于工程教育,我们的综合研究要求采用差异化方案:在可通过适当支架管理自动化偏见的技术基础领域采用人工智能辅导,但在设计、伦理与专业判断等隐性知识传递不可替代的领域,仍需人类引导。

0
下载
关闭预览

相关内容

机器或装置在无人干预的情况下按规定的程序或指令自动进行操作或控制的过程, 是一门涉及学科较多、应用广泛的综合性科学技术。
如何帮助人类理解机器人?哈佛、MIT专家为你解读
专知会员服务
30+阅读 · 2022年3月11日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
160+阅读 · 2020年10月10日
机器学习的可解释性:因果推理和稳定学习
DataFunTalk
13+阅读 · 2020年3月3日
人工智能在教育领域的应用探析
MOOC
14+阅读 · 2019年3月16日
AI 经典书单 | 人工智能学习该读哪些书
七月在线实验室
35+阅读 · 2018年1月16日
基于信息理论的机器学习
专知
22+阅读 · 2017年11月23日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
49+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2025年12月31日
VIP会员
最新内容
技术、多域威慑与海上战争(报告)
专知会员服务
6+阅读 · 4月13日
“在云端防御”:提升北约数据韧性(报告)
专知会员服务
3+阅读 · 4月13日
人工智能及其在海军行动中的整合(综述)
专知会员服务
3+阅读 · 4月13日
美军MAVEN项目全面解析:算法战架构
专知会员服务
19+阅读 · 4月13日
从俄乌战场看“马赛克战”(万字长文)
专知会员服务
13+阅读 · 4月13日
相关VIP内容
如何帮助人类理解机器人?哈佛、MIT专家为你解读
专知会员服务
30+阅读 · 2022年3月11日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
160+阅读 · 2020年10月10日
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
49+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员