This paper compares three approaches to detecting incivility in Persian tweets: human qualitative coding, supervised learning with ParsBERT, and large language models (ChatGPT). Using 47,278 tweets from the #MahsaAmini movement in Iran, we evaluate the accuracy and efficiency of each method. ParsBERT substantially outperforms seven evaluated ChatGPT models in identifying hate speech. We also find that ChatGPT struggles not only with subtle cases but also with explicitly uncivil content, and that prompt language (English vs. Persian) does not meaningfully affect its outputs. The study provides a detailed comparison of these approaches and clarifies their strengths and limitations for analyzing hate speech in a low-resource language context.


翻译:本文比较了三种检测波斯语推文不文明现象的方法:人工定性编码、基于ParsBERT的监督学习以及大语言模型(ChatGPT)。通过使用伊朗#MahsaAmini运动中的47,278条推文,我们评估了每种方法的准确性和效率。在识别仇恨言论方面,ParsBERT显著优于七个经过评估的ChatGPT模型。我们还发现ChatGPT不仅在处理微妙案例时存在困难,对于明确的不文明内容也表现不佳,且提示语言(英语与波斯语)对其输出结果未产生实质性影响。本研究详细比较了这些方法,并阐明了它们在低资源语言环境下分析仇恨言论的优势与局限性。

0
下载
关闭预览

相关内容

深度学习模型不确定性方法对比
PaperWeekly
20+阅读 · 2020年2月10日
几种句子表示方法的比较
AINLP
15+阅读 · 2019年9月21日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
BERT相关论文、文章和代码资源汇总
AINLP
19+阅读 · 2018年11月17日
计算文本相似度常用的四种方法
论智
33+阅读 · 2018年5月18日
最新|深度离散哈希算法,可用于图像检索!
全球人工智能
14+阅读 · 2017年12月15日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
相关VIP内容
相关资讯
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员