As large language models (LLMs) witness increasing deployment in complex, high-stakes decision-making scenarios, it becomes imperative to ground their reasoning in causality rather than spurious correlations. However, strong performance on traditional reasoning benchmarks does not guarantee true causal reasoning ability of LLMs, as high accuracy may still arise from memorizing semantic patterns instead of analyzing the underlying true causal structures. To bridge this critical gap, we propose a new causal reasoning benchmark, CausalFlip, designed to encourage the development of new LLM paradigm or training algorithms that ground LLM reasoning in causality rather than semantic correlation. CausalFlip consists of causal judgment questions built over event triples that could form different confounder, chain, and collider relations. Based on this, for each event triple, we construct pairs of semantically similar questions that reuse the same events but yield opposite causal answers, where models that rely heavily on semantic matching are systematically driven toward incorrect predictions. To further probe models' reliance on semantic patterns, we introduce a noisy-prefix evaluation that prepends causally irrelevant text before intermediate causal reasoning steps without altering the underlying causal relations or the logic of the reasoning process. We evaluate LLMs under multiple training paradigms, including answer-only training, explicit Chain-of-Thought (CoT) supervision, and a proposed internalized causal reasoning approach that aims to mitigate explicit reliance on correlation in the reasoning process. Our results show that explicit CoT can still be misled by spurious semantic correlations, where internalizing reasoning steps yields substantially improved causal grounding, suggesting that it is promising to better elicit the latent causal reasoning capabilities of base LLMs.


翻译:随着大语言模型(LLM)在复杂高风险决策场景中的部署日益增多,将其推理能力建立在因果关系而非伪相关之上变得至关重要。然而,在传统推理基准上的优异表现并不能保证LLM具备真正的因果推理能力,因为高准确率仍可能源于对语义模式的记忆,而非对底层真实因果结构的分析。为弥合这一关键差距,我们提出了一个新的因果推理基准CausalFlip,旨在鼓励开发新的LLM范式或训练算法,使LLM推理基于因果关系而非语义相关性。CausalFlip包含基于事件三元组构建的因果判断问题,这些三元组可形成不同的混杂因子、链式和碰撞关系。在此基础上,针对每个事件三元组,我们构建了语义相似的问题对,这些问题对复用相同的事件但产生相反的因果答案,从而使得严重依赖语义匹配的模型被系统性地导向错误预测。为进一步探究模型对语义模式的依赖,我们引入了噪声前缀评估方法,即在中间因果推理步骤前添加因果无关的文本,而不改变底层因果关系或推理过程的逻辑。我们在多种训练范式下评估LLM,包括仅答案训练、显式思维链监督,以及一种旨在减轻推理过程中对相关性显式依赖的拟议内化因果推理方法。实验结果表明,显式思维链仍可能被伪语义相关性误导,而内化推理步骤能显著提升因果基础性,这表明更好地激发基础LLM的潜在因果推理能力具有广阔前景。

0
下载
关闭预览

相关内容

大型语言模型的规模效应局限
专知会员服务
14+阅读 · 2025年11月18日
【博士论文】《自然语言处理中的因果推理》
专知会员服务
24+阅读 · 2025年4月25日
大规模语言模型推理的进展综述
专知会员服务
57+阅读 · 2025年2月8日
大语言模型的因果性
专知会员服务
40+阅读 · 2024年10月22日
大型语言模型高效推理综述
专知会员服务
64+阅读 · 2024年4月23日
因果性与大型语言模型:一个新的前沿,51页ppt
专知会员服务
79+阅读 · 2023年9月17日
「大型语言模型推理」综述
专知会员服务
95+阅读 · 2022年12月24日
「因果推理」概述论文,13页pdf
专知
16+阅读 · 2021年3月20日
基于深度元学习的因果推断新方法
图与推荐
12+阅读 · 2020年7月21日
因果推理学习算法资源大列表
专知
27+阅读 · 2019年3月3日
关系推理:基于表示学习和语义要素
计算机研究与发展
19+阅读 · 2017年8月22日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
23+阅读 · 2008年12月31日
VIP会员
相关VIP内容
大型语言模型的规模效应局限
专知会员服务
14+阅读 · 2025年11月18日
【博士论文】《自然语言处理中的因果推理》
专知会员服务
24+阅读 · 2025年4月25日
大规模语言模型推理的进展综述
专知会员服务
57+阅读 · 2025年2月8日
大语言模型的因果性
专知会员服务
40+阅读 · 2024年10月22日
大型语言模型高效推理综述
专知会员服务
64+阅读 · 2024年4月23日
因果性与大型语言模型:一个新的前沿,51页ppt
专知会员服务
79+阅读 · 2023年9月17日
「大型语言模型推理」综述
专知会员服务
95+阅读 · 2022年12月24日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
23+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员