In this paper, we study how different Reddit communities discuss generative AI in high school education, focusing on learning, academic integrity, AI detection, and emotional framing. Using 3,789 posts from five education-related subreddits, we compare student, teacher, and mixed communities using a pipeline that combines keyword retrieval, human-validated relevance filtering, LLM-assisted annotation, and statistical tests of group differences. We find that stakeholder position strongly shapes discourse: teachers are more likely to articulate explicit pedagogical trade-offs, simultaneously framing AI as both beneficial and harmful for learning, whereas students more often discuss AI tactically in relation to accusations, grades, and enforcement. Across all groups, detector-related discourse is associated with significantly higher negative emotion, with larger effects for students and mixed communities than for teachers. These results suggest that AI detectors function not only as contested technical tools but also as governance mechanisms that impose asymmetric emotional burdens on those subject to institutional enforcement. Finally, we argue that detection-based enforcement should not serve as a primary academic-integrity strategy and that process-based assessment offers a fairer alternative for verifying authorship in AI-mediated classrooms.


翻译:本文研究不同Reddit社群如何讨论高中教育中的生成式AI,重点关注学习、学术诚信、AI检测及情感框架。我们基于来自五个教育相关子版块的3,789篇帖子,通过结合关键词检索、人工验证相关性过滤、大语言模型辅助标注及群体差异统计检验的分析流程,对学生、教师及混合社群进行比较。研究发现利益相关者立场深刻塑造了话语模式:教师更倾向于阐明明确的教学权衡,同时将AI视为对学习既有益又有害的工具;而学生则更多从战术层面讨论AI,涉及指控、成绩评定及惩戒执行。在所有群体中,与检测相关的话语均与显著更高的负面情感相关联,且对学生及混合社群的影响效应大于教师群体。这些结果表明,AI检测器不仅是存在争议的技术工具,更是治理机制——对受制度约束者施加不对称的情感负担。最后,我们主张不应将基于检测的惩戒作为首要学术诚信策略,并认为过程性评估为AI介入的课堂中的作者身份验证提供了更公平的替代方案。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
《生成式人工智能及其在防御性网络安全课程中的应用》
专知会员服务
18+阅读 · 2025年10月30日
AI教育的落地深度研究:复盘、对比和商业化
专知会员服务
16+阅读 · 2025年4月3日
红杉资本行业总结篇:生成式 AI 的发展
专知会员服务
29+阅读 · 2024年10月15日
《评估生成式人工智能的红队方法》最新37页长综述
专知会员服务
56+阅读 · 2024年5月27日
【新书】生成式AI在高等教育中:ChatGPT效应,287页pdf
专知会员服务
50+阅读 · 2024年3月22日
生成式AI:认知对抗的新武器
专知会员服务
83+阅读 · 2023年12月29日
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
44+阅读 · 2019年10月16日
人工智能在教育领域的应用探析
MOOC
14+阅读 · 2019年3月16日
基于面部表情的学习困惑自动识别法
MOOC
10+阅读 · 2018年9月17日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
VIP会员
最新内容
认知战与交战性质的改变:神经战略视角
专知会员服务
5+阅读 · 5月8日
人工智能如何变革军事C5ISR作战
专知会员服务
12+阅读 · 5月8日
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员