Large language models often struggle to recognize their knowledge limits in closed-book question answering, leading to confident hallucinations. While decomposed prompting is typically used to improve accuracy, we investigate its impact on reliability. We evaluate three task-equivalent prompting regimes: Direct, Assistive, and Incremental, across different model scales and multi-hop QA benchmarks. We find that although accuracy gains from decomposition diminish in frontier models, disagreements between prompting regimes remain highly indicative of potential errors. Because factual knowledge is stable while hallucinations are stochastic, cross-regime agreement provides a precise signal of internal uncertainty. We leverage this signal to implement a training-free abstention policy that requires no retrieval or fine-tuning. Our results show that disagreement-based abstention outperforms standard uncertainty baselines as an error detector, improving both F1 and AUROC across settings. This demonstrates that decomposition-based prompting can serve as a practical diagnostic probe for model reliability in closed-book QA.


翻译:大型语言模型在闭卷问答中往往难以识别自身知识边界,导致产生自信的幻觉性回答。尽管分解式提示通常用于提升准确性,本研究重点探究其对可靠性的影响。我们在不同规模模型与多跳问答基准上评估了三种任务等效的提示范式:直接式、辅助式与渐进式。研究发现,虽然前沿模型中分解带来的准确率增益有所减弱,但不同提示范式间的分歧仍能有效指示潜在错误。由于事实性知识具有稳定性而幻觉具有随机性,跨范式一致性可为模型内部不确定性提供精确信号。我们利用该信号实现了无需检索或微调的免训练弃答策略。实验结果表明,基于分歧的弃答机制作为错误检测器优于标准不确定性基线,在多种设定下同步提升了F1分数与AUROC指标。这证明基于分解的提示方法可作为闭卷问答中模型可靠性的实用诊断探针。

0
下载
关闭预览

相关内容

大型语言模型系统中提示缺陷的分类学
专知会员服务
8+阅读 · 2025年9月19日
大型语言模型的高效提示方法综述
专知会员服务
75+阅读 · 2024年4月2日
探究检索增强下的大模型知识边界
专知会员服务
56+阅读 · 2023年7月25日
专知会员服务
27+阅读 · 2021年10月12日
论文浅尝 | 常识用于回答生成式多跳问题
开放知识图谱
16+阅读 · 2018年11月24日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员