The prevalence of sarcasm in multimodal dialogues on the social platforms presents a crucial yet challenging task for understanding the true intent behind online content. Comprehensive sarcasm analysis requires two key aspects: Multimodal Sarcasm Detection (MSD) and Multimodal Sarcasm Explanation (MuSE). Intuitively, the act of detection is the result of the reasoning process that explains the sarcasm. Current research predominantly focuses on addressing either MSD or MuSE as a single task. Even though some recent work has attempted to integrate these tasks, their inherent causal dependency is often overlooked. To bridge this gap, we propose MuVaC, a variational causal inference framework that mimics human cognitive mechanisms for understanding sarcasm, enabling robust multimodal feature learning to jointly optimize MSD and MuSE. Specifically, we first model MSD and MuSE from the perspective of structural causal models, establishing variational causal pathways to define the objectives for joint optimization. Next, we design an alignment-then-fusion approach to integrate multimodal features, providing robust fusion representations for sarcasm detection and explanation generation. Finally, we enhance the reasoning trustworthiness by ensuring consistency between detection results and explanations. Experimental results demonstrate the superiority of MuVaC in public datasets, offering a new perspective for understanding multimodal sarcasm.


翻译:社交平台上多模态对话中讽刺的普遍存在,为理解在线内容背后的真实意图提出了一项关键而具有挑战性的任务。全面的讽刺分析需要两个关键方面:多模态讽刺检测(MSD)和多模态讽刺解释(MuSE)。直观上,检测行为是解释讽刺的推理过程的结果。当前的研究主要集中于将MSD或MuSE作为单一任务来处理。尽管最近的一些工作尝试整合这些任务,但它们内在的因果依赖性常常被忽视。为了弥合这一差距,我们提出了MuVaC,一个模仿人类理解讽刺认知机制的变分因果推理框架,能够实现鲁棒的多模态特征学习,以联合优化MSD和MuSE。具体而言,我们首先从结构因果模型的角度对MSD和MuSE进行建模,建立变分因果路径来定义联合优化的目标。接着,我们设计了一种先对齐后融合的方法来整合多模态特征,为讽刺检测和解释生成提供鲁棒的融合表示。最后,我们通过确保检测结果与解释之间的一致性来增强推理的可信度。实验结果证明了MuVaC在公共数据集上的优越性,为理解多模态讽刺提供了新的视角。

0
下载
关闭预览

相关内容

【博士论文】弥合多模态基础模型与世界模型之间的鸿沟
多模态大规模语言模型基准的综述
专知会员服务
41+阅读 · 2024年8月25日
大型语言模型遇上文本中心的多模态情感分析:综述
专知会员服务
25+阅读 · 2024年6月13日
专知会员服务
149+阅读 · 2020年9月6日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
VIP会员
相关VIP内容
【博士论文】弥合多模态基础模型与世界模型之间的鸿沟
多模态大规模语言模型基准的综述
专知会员服务
41+阅读 · 2024年8月25日
大型语言模型遇上文本中心的多模态情感分析:综述
专知会员服务
25+阅读 · 2024年6月13日
专知会员服务
149+阅读 · 2020年9月6日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员