Do transformer models generalize morphological patterns like humans do? We investigate this by directly comparing transformers to human behavioral data on Spanish irregular morphomic patterns from \citet{Nevins2015TheRA}. We adopt the same analytical framework as the original human study. Under controlled input conditions, we evaluate whether transformer models can replicate human-like sensitivity to the morphome, a complex linguistic phenomenon. Our experiments focus on three frequency conditions: natural, low-frequency, and high-frequency distributions of verbs exhibiting irregular morphomic patterns. Transformer models achieve higher stem-accuracy than human participants. However, response preferences diverge: humans consistently favor the "natural" inflection across all items, whereas models preferred the irregular forms, and their choices are modulated by the proportion of irregular verbs present during training. Moreover, models trained on the natural and low-frequency distributions, but not the high-frequency distribution, exhibit sensitivity to phonological similarity between test items and Spanish L-shaped verbs, mirroring a limited aspect of human phonological generalization.


翻译:Transformer模型是否像人类一样泛化形态模式?我们通过将Transformer模型与\citet{Nevins2015TheRA}中西班牙语不规则形态模式的人类行为数据直接比较来研究这一问题。我们采用与原始人类研究相同的分析框架。在受控输入条件下,我们评估Transformer模型能否复现人类对形态素(一种复杂语言现象)的敏感性。我们的实验聚焦于三种频率条件:呈现不规则形态模式的动词在自然、低频和高频分布下的表现。Transformer模型在词干准确率上优于人类参与者。然而,响应偏好存在差异:人类在所有测试项中始终偏好"自然"屈折形式,而模型更倾向于不规则形式,且其选择受训练过程中不规则动词比例的影响。此外,在自然分布和低频分布(而非高频分布)上训练的模型,对测试项与西班牙语L形动词之间的音系相似性表现出敏感性,这反映了人类音系泛化能力的某个有限方面。

0
下载
关闭预览

相关内容

【ICML2022】基于元语义正则化的介入性对比学习
专知会员服务
21+阅读 · 2022年7月1日
专知会员服务
33+阅读 · 2021年7月27日
专知会员服务
29+阅读 · 2020年10月2日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
12+阅读 · 2015年7月1日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
VIP会员
相关VIP内容
【ICML2022】基于元语义正则化的介入性对比学习
专知会员服务
21+阅读 · 2022年7月1日
专知会员服务
33+阅读 · 2021年7月27日
专知会员服务
29+阅读 · 2020年10月2日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员