Public debate on the alleged decline of language skills among younger generations often focuses on university students, the most highly educated segment of the population. Rather than addressing the ill posed question of linguistic decline, this paper examines how formal written Italian is currently used by university students and whether systematic patterns of competence and heterogeneity can be identified. The analysis is based on data from the UniversITA project, which collected formal texts written by a large and nationally representative sample of Italian university students. Texts were annotated for linguistically motivated features covering orthography, lexicon, syntax, morphosyntax, coherence, register, and sentence structure, yielding low frequency multivariate count data. To analyse these data, we propose a novel model-based clustering approach based on a Poisson factor mixture model that accounts for dependence among linguistic features and unobserved population heterogeneity. The results identify two correlated dimensions of writing competence, interpretable as communicative competence and linguistic grammatical competence. When educational and socio demographic information is incorporated, distinct student profiles emerge that are associated with field of study and educational background. These findings provide quantitative evidence on contemporary writing and offer insights relevant for language education and higher education policy.


翻译:关于年轻一代语言能力下降的公共讨论常聚焦于大学生这一受教育程度最高的人群。本文不探讨语言能力下降这一不恰当的问题,而是考察大学生如何运用正式的书面意大利语,以及能否识别出系统性的能力模式和异质性。分析基于UniversITA项目的数据,该项目收集了具有全国代表性的意大利大学生样本所撰写的正式文本。文本在语言学特征上进行了标注,涵盖正字法、词汇、句法、形态句法、连贯性、语域和句子结构,从而产生了低频率的多元计数数据。为分析这些数据,我们提出了一种基于泊松因子混合模型的新型模型聚类方法,该方法考虑了语言特征间的依赖关系和未观测到的群体异质性。结果识别出写作能力的两个相关维度,可解释为交际能力和语言语法能力。当纳入教育和社会人口学信息时,出现了不同的学生特征,这些特征与学习领域和教育背景相关。这些发现为当代写作提供了定量证据,并为语言教育和高等教育政策提供了相关见解。

0
下载
关闭预览

相关内容

人类接受高层次教育、进行原创性研究的场所。 现在的大学一般包括一个能授予硕士和博士学位的研究生院和数个专业学院,以及能授予学士学位的一个本科生院。大学还包括高等专科学校
大型语言模型的规模效应局限
专知会员服务
14+阅读 · 2025年11月18日
【新书】实践大型语言模型:语言理解与生成
专知会员服务
69+阅读 · 2024年10月1日
大语言模型对齐研究综述
专知会员服务
56+阅读 · 2024年8月1日
【NTU博士论文】语言模型自适应迁移学习
专知会员服务
38+阅读 · 2023年12月20日
《大型语言模型归因》综述
专知会员服务
75+阅读 · 2023年11月8日
「知识增强预训练语言模型」最新研究综述
专知
18+阅读 · 2022年11月18日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
NLP Chinese Corpus:大规模中文自然语言处理语料
PaperWeekly
14+阅读 · 2019年2月18日
【好文解析】ICASSP最佳学生论文:深度对抗声学模型训练框架
中国科学院自动化研究所
13+阅读 · 2018年4月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
499+阅读 · 2023年3月31日
VIP会员
相关VIP内容
大型语言模型的规模效应局限
专知会员服务
14+阅读 · 2025年11月18日
【新书】实践大型语言模型:语言理解与生成
专知会员服务
69+阅读 · 2024年10月1日
大语言模型对齐研究综述
专知会员服务
56+阅读 · 2024年8月1日
【NTU博士论文】语言模型自适应迁移学习
专知会员服务
38+阅读 · 2023年12月20日
《大型语言模型归因》综述
专知会员服务
75+阅读 · 2023年11月8日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员