Emotion recognition from multi-modal physiological and behavioral signals plays a pivotal role in affective computing, yet most existing models remain constrained to the prediction of singular emotions in controlled laboratory settings. Real-world human emotional experiences, by contrast, are often characterized by the simultaneous presence of multiple affective states, spurring recent interest in mixed emotion recognition as an emotion distribution learning problem. Current approaches, however, often neglect the valence consistency and structured correlations inherent among coexisting emotions. To address this limitation, we propose a Memory-guided Prototypical Co-occurrence Learning (MPCL) framework that explicitly models emotion co-occurrence patterns. Specifically, we first fuse multi-modal signals via a multi-scale associative memory mechanism. To capture cross-modal semantic relationships, we construct emotion-specific prototype memory banks, yielding rich physiological and behavioral representations, and employ prototype relation distillation to ensure cross-modal alignment in the latent prototype space. Furthermore, inspired by human cognitive memory systems, we introduce a memory retrieval strategy to extract semantic-level co-occurrence associations across emotion categories. Through this bottom-up hierarchical abstraction process, our model learns affectively informative representations for accurate emotion distribution prediction. Comprehensive experiments on two public datasets demonstrate that MPCL consistently outperforms state-of-the-art methods in mixed emotion recognition, both quantitatively and qualitatively.


翻译:基于多模态生理与行为信号的情绪识别在情感计算中具有关键作用,然而现有模型大多局限于在受控实验室环境下预测单一情绪。相比之下,真实世界中的人类情绪体验往往以多种情感状态同时存在为特征,这促使混合情绪识别作为情绪分布学习问题受到近期关注。然而,现有方法通常忽视共存情绪之间固有的效价一致性与结构化关联。为克服这一局限,我们提出一种记忆引导的原型共现学习框架,显式建模情绪共现模式。具体而言,我们首先通过多尺度关联记忆机制融合多模态信号。为捕捉跨模态语义关系,我们构建情绪特定的原型记忆库,生成丰富的生理与行为表征,并采用原型关系蒸馏确保潜在原型空间中的跨模态对齐。此外,受人类认知记忆系统启发,我们引入记忆检索策略以提取跨情绪类别的语义级共现关联。通过这种自底向上的层次抽象过程,我们的模型学习到具有情感信息性的表征,以实现精准的情绪分布预测。在两个公开数据集上的综合实验表明,MPCL在定量与定性评估中均持续优于混合情绪识别领域的现有先进方法。

0
下载
关闭预览

相关内容

多模态对话情感识别:方法、趋势、挑战与前景综述
专知会员服务
20+阅读 · 2025年5月28日
《静态与动态情感的面部表情识别综述》
专知会员服务
20+阅读 · 2024年8月31日
大型语言模型遇上文本中心的多模态情感分析:综述
专知会员服务
25+阅读 · 2024年6月13日
【AAAI2022】混合课程学习对话情绪识别
专知会员服务
28+阅读 · 2021年12月24日
多模态情绪识别研究综述
专知会员服务
170+阅读 · 2020年12月21日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
43+阅读 · 2020年9月8日
多模态情绪识别研究综述
专知
25+阅读 · 2020年12月21日
何晖光:多模态情绪识别及跨被试迁移学习
深度学习大讲堂
58+阅读 · 2019年4月23日
基于面部表情的学习困惑自动识别法
MOOC
10+阅读 · 2018年9月17日
【团队新作】连续情感识别,精准捕捉你的小情绪!
中国科学院自动化研究所
16+阅读 · 2018年4月17日
就喜欢看综述论文:情感分析中的深度学习
机器之心
13+阅读 · 2018年1月26日
特定目标情感分析——神经网络这是要逆天么
计算机研究与发展
14+阅读 · 2017年9月5日
深度学习在情感分析中的应用
CSDN大数据
14+阅读 · 2017年8月22日
关系推理:基于表示学习和语义要素
计算机研究与发展
19+阅读 · 2017年8月22日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
最新内容
乌克兰前线的五项创新
专知会员服务
0+阅读 · 21分钟前
 军事通信系统与设备的技术演进综述
专知会员服务
0+阅读 · 36分钟前
《北约标准:医疗评估手册》174页
专知会员服务
0+阅读 · 44分钟前
《提升生成模型的安全性与保障》博士论文
专知会员服务
0+阅读 · 48分钟前
美国当前高超音速导弹发展概述
专知会员服务
4+阅读 · 4月19日
无人机蜂群建模与仿真方法
专知会员服务
8+阅读 · 4月19日
澳大利亚发布《国防战略(2026年)》
专知会员服务
2+阅读 · 4月19日
全球高超音速武器最新发展趋势
专知会员服务
3+阅读 · 4月19日
相关资讯
多模态情绪识别研究综述
专知
25+阅读 · 2020年12月21日
何晖光:多模态情绪识别及跨被试迁移学习
深度学习大讲堂
58+阅读 · 2019年4月23日
基于面部表情的学习困惑自动识别法
MOOC
10+阅读 · 2018年9月17日
【团队新作】连续情感识别,精准捕捉你的小情绪!
中国科学院自动化研究所
16+阅读 · 2018年4月17日
就喜欢看综述论文:情感分析中的深度学习
机器之心
13+阅读 · 2018年1月26日
特定目标情感分析——神经网络这是要逆天么
计算机研究与发展
14+阅读 · 2017年9月5日
深度学习在情感分析中的应用
CSDN大数据
14+阅读 · 2017年8月22日
关系推理:基于表示学习和语义要素
计算机研究与发展
19+阅读 · 2017年8月22日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员