Knowledge Graphs (KGs) are widely used to represent structured knowledge, yet their automatic construction, especially with Large Language Models (LLMs), often results in incomplete or noisy outputs. Knowledge Graph Completion (KGC) aims to infer and add missing triples, but most existing methods either rely on structural embeddings that overlook semantics or language models that ignore the graph's structure and depend on external sources. In this work, we present OMNIA, a two-stage approach that bridges structural and semantic reasoning for KGC. It first generates candidate triples by clustering semantically related entities and relations within the KG, then validates them through lightweight embedding filtering followed by LLM-based semantic validation. OMNIA performs on the internal KG, without external sources, and specifically targets implicit semantics that are most frequent in LLM-generated graphs. Extensive experiments on multiple datasets demonstrate that OMNIA significantly improves F1-score compared to traditional embedding-based models. These results highlight OMNIA's effectiveness and efficiency, as its clustering and filtering stages reduce both search space and validation cost while maintaining high-quality completion.


翻译:知识图谱(KGs)被广泛用于表示结构化知识,但其自动构建——尤其是利用大型语言模型(LLMs)时——常常产生不完整或含有噪声的输出。知识图谱补全(KGC)旨在推断并添加缺失的三元组,但现有方法大多要么依赖忽略语义的结构嵌入,要么依赖忽略图谱结构并需要外部资源的语言模型。本文提出OMNIA,一种为KGC桥接结构推理与语义推理的两阶段方法。该方法首先通过在知识图谱内对语义相关的实体和关系进行聚类来生成候选三元组,随后通过轻量级嵌入过滤和基于LLM的语义验证进行筛选。OMNIA完全在知识图谱内部运行,无需外部资源,并特别针对LLM生成图谱中最常见的隐含语义进行补全。在多个数据集上的大量实验表明,与传统的基于嵌入的模型相比,OMNIA显著提升了F1分数。这些结果凸显了OMNIA的有效性与高效性,其聚类和过滤阶段在保持高质量补全的同时,显著减少了搜索空间和验证成本。

0
下载
关闭预览

相关内容

【新书】《知识图谱与大语言模型的协同应用》,544页pdf
专知会员服务
90+阅读 · 2025年10月29日
大型语言模型(LLM)赋能的知识图谱构建:综述
专知会员服务
56+阅读 · 2025年10月24日
知识图谱KG在NLP的十年研究进展综述
专知
17+阅读 · 2022年10月4日
论文浅尝 | Open world Knowledge Graph Completion
开放知识图谱
19+阅读 · 2018年1月30日
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
Arxiv
15+阅读 · 2019年11月26日
VIP会员
相关VIP内容
【新书】《知识图谱与大语言模型的协同应用》,544页pdf
专知会员服务
90+阅读 · 2025年10月29日
大型语言模型(LLM)赋能的知识图谱构建:综述
专知会员服务
56+阅读 · 2025年10月24日
相关基金
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员