Despite the impressive performance of large language models (LLMs) pretrained on vast knowledge corpora, advancing their knowledge manipulation-the ability to effectively recall, reason, and transfer relevant knowledge-remains challenging. Existing methods mainly leverage Supervised Fine-Tuning (SFT) on labeled datasets to enhance LLMs' knowledge manipulation ability. However, we observe that SFT models still exhibit the known&incorrect phenomenon, where they explicitly possess relevant knowledge for a given question but fail to leverage it for correct answers. To address this challenge, we propose KALE (Knowledge-Aware LEarning)-a post-training framework that leverages knowledge graphs (KGs) to generate high-quality rationales and enhance LLMs' knowledge manipulation ability. Specifically, KALE first introduces a Knowledge-Induced (KI) data synthesis method that efficiently extracts multi-hop reasoning paths from KGs to generate high-quality rationales for question-answer pairs. Then, KALE employs a Knowledge-Aware (KA) fine-tuning paradigm that enhances knowledge manipulation by internalizing rationale-guided reasoning through minimizing the KL divergence between predictions with and without rationales. Extensive experiments on eight popular benchmarks across six different LLMs demonstrate the effectiveness of KALE, achieving accuracy improvements of up to 11.72% and an average of 4.18%.


翻译:尽管在庞大知识语料库上预训练的大型语言模型(LLMs)表现出令人印象深刻的性能,但提升其知识操纵能力——即有效回忆、推理和迁移相关知识的能力——仍然具有挑战性。现有方法主要利用在标注数据集上的监督微调(SFT)来增强LLMs的知识操纵能力。然而,我们观察到SFT模型仍表现出“已知但错误”的现象,即它们明确拥有给定问题的相关知识,却未能利用这些知识得出正确答案。为应对这一挑战,我们提出了KALE(知识感知学习)——一个利用知识图谱(KGs)生成高质量推理依据并增强LLMs知识操纵能力的后训练框架。具体而言,KALE首先引入了一种知识诱导(KI)数据合成方法,该方法高效地从知识图谱中提取多跳推理路径,为问答对生成高质量的推理依据。随后,KALE采用一种知识感知(KA)微调范式,通过最小化模型在有推理依据与无推理依据情况下的预测之间的KL散度,将推理依据引导的推理过程内化,从而增强知识操纵能力。在六个不同LLMs上对八个流行基准进行的广泛实验证明了KALE的有效性,其准确率最高提升达11.72%,平均提升4.18%。

0
下载
关闭预览

相关内容

大型语言模型推理增强外部知识:综述
专知会员服务
38+阅读 · 2025年6月2日
大语言模型增强知识表示学习综述
专知会员服务
69+阅读 · 2024年7月2日
大型语言模型增强强化学习综述:概念、分类和方法
专知会员服务
57+阅读 · 2024年4月4日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
「知识增强预训练语言模型」最新研究综述
专知
18+阅读 · 2022年11月18日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
国家自然科学基金
40+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
最新内容
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
0+阅读 · 40分钟前
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
1+阅读 · 45分钟前
【NTU博士论文】3D人体动作生成
专知会员服务
3+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
11+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
8+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
3+阅读 · 4月24日
相关基金
国家自然科学基金
40+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员