Textual Emotion Classification (TEC) is one of the most difficult NLP tasks. State of the art approaches rely on Large language models (LLMs) and multi-model ensembles. In this study, we challenge the assumption that larger scale or more complex models are necessary for improved performance. In order to improve logical consistency, We introduce CMHL, a novel single-model architecture that explicitly models the logical structure of emotions through three key innovations: (1) multi-task learning that jointly predicts primary emotions, valence, and intensity, (2) psychologically-grounded auxiliary supervision derived from Russell's circumplex model, and (3) a novel contrastive contradiction loss that enforces emotional consistency by penalizing mutually incompatible predictions (e.g., simultaneous high confidence in joy and anger). With just 125M parameters, our model outperforms 56x larger LLMs and sLM ensembles with a new state-of-the-art F1 score of 93.75\% compared to (86.13\%-93.2\%) on the dair-ai Emotion dataset. We further show cross domain generalization on the Reddit Suicide Watch and Mental Health Collection dataset (SWMH), outperforming domain-specific models like MentalBERT and MentalRoBERTa with an F1 score of 72.50\% compared to (68.16\%-72.16\%) + a 73.30\% recall compared to (67.05\%-70.89\%) that translates to enhanced sensitivity for detecting mental health distress. Our work establishes that architectural intelligence (not parameter count) drives progress in TEC. By embedding psychological priors and explicit consistency constraints, a well-designed single model can outperform both massive LLMs and complex ensembles, offering a efficient, interpretable, and clinically-relevant paradigm for affective computing.


翻译:文本情感分类是自然语言处理领域最具挑战性的任务之一。当前最先进的方法依赖于大语言模型和多模型集成。本研究挑战了“提升性能必须依赖更大规模或更复杂模型”的假设。为提高逻辑一致性,我们提出了CMHL——一种新颖的单模型架构,通过三项关键创新显式建模情感的逻辑结构:(1) 联合预测基本情感、效价与强度的多任务学习;(2) 基于罗素环状模型的心理驱动辅助监督;(3) 新型对比矛盾损失函数,通过惩罚互不相容的预测(例如对喜悦与愤怒同时赋予高置信度)来强化情感一致性。仅使用1.25亿参数,我们的模型在dair-ai Emotion数据集上以93.75%的F1分数(对比基线86.13%-93.2%)超越了参数量56倍的大语言模型与小语言模型集成,创造了新的最优性能。我们进一步在Reddit自杀监控与心理健康数据集上展示了跨领域泛化能力:相比MentalBERT、MentalRoBERTa等领域专用模型,以72.50%的F1分数(对比68.16%-72.16%)和73.30%的召回率(对比67.05%-70.89%)实现超越,该召回率提升意味着对心理健康危机信号的检测敏感度显著增强。本研究表明:驱动文本情感分类进步的核心是架构智能(而非参数量)。通过嵌入心理学先验与显式一致性约束,一个精心设计的单模型能够超越庞杂的大语言模型与复杂集成系统,为情感计算提供高效、可解释且具临床实用价值的新范式。

0
下载
关闭预览

相关内容

领域特定文本分类中的预训练语言模型新进展:系统综述
专知会员服务
14+阅读 · 2025年10月24日
多模态对话情感识别:方法、趋势、挑战与前景综述
专知会员服务
20+阅读 · 2025年5月28日
文本分类算法及其应用场景研究
专知会员服务
19+阅读 · 2024年7月31日
大型语言模型遇上文本中心的多模态情感分析:综述
专知会员服务
25+阅读 · 2024年6月13日
基于深度学习的中文文本分类综述
专知会员服务
25+阅读 · 2024年5月9日
专知会员服务
40+阅读 · 2021年5月18日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
188+阅读 · 2020年8月6日
专栏 | NLP概述和文本自动分类算法详解
机器之心
12+阅读 · 2018年7月24日
深度学习文本分类方法综述(代码)
中国人工智能学会
28+阅读 · 2018年6月16日
就喜欢看综述论文:情感分析中的深度学习
机器之心
13+阅读 · 2018年1月26日
深度学习在文本分类中的应用
AI研习社
13+阅读 · 2018年1月7日
情感分析的新方法,使用word2vec对微博文本进行情感分析和分类
数据挖掘入门与实战
22+阅读 · 2018年1月6日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
VIP会员
最新内容
最新“指挥控制”领域出版物合集(16份)
专知会员服务
5+阅读 · 4月12日
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
12+阅读 · 4月12日
远程空中优势:新一代超视距导弹的兴起
专知会员服务
2+阅读 · 4月12日
大语言模型溯因推理的统一分类学与综述
专知会员服务
2+阅读 · 4月12日
相关资讯
相关基金
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员