Decoder-only LLM rerankers struggle with long documents: inference is costly and relevance signals can be diluted by irrelevant context. Motivated by an attention analysis indicating a consistent degradation trend when non-relevant text is appended, we propose EviRerank, an evidence-based long-document reranking framework for decoder-only LLMs. EviRerank (i) scores document blocks with a lightweight selector (BM25, bi-encoder, or cross-encoder), (ii) constructs a compact reranking context under a hard token cap by dynamically budgeting evidence blocks with Adaptive Evidence Budgeting (AEB) and adding a global summary cue via Summary Augmentation (SA), and (iii) reranks with a decoder-only LLM. Across TREC DL'19, DL'23, and MLDR-zh, EviRerank consistently outperforms full-document LLM reranking and strong block-selection baselines while substantially reducing the required input length. On TREC DL'19, EviRerank achieves 0.743 nDCG@10 and 0.307 MAP, establishing a new best result and improving over RankLLaMA (0.701/0.288) by +0.042 nDCG@10 (+6.0%) and +0.019 MAP (+6.6%).


翻译:仅解码器架构的大型语言模型(LLM)重排序器在处理长文档时面临挑战:推理成本高昂,且相关性信号易被无关上下文稀释。受注意力机制分析(表明附加非相关文本会导致性能持续下降趋势)的启发,我们提出了EviRerank,一个面向仅解码器LLM的、基于证据的长文档重排序框架。EviRerank(i)使用轻量级选择器(BM25、双编码器或交叉编码器)对文档块进行评分,(ii)通过自适应证据预算(AEB)动态分配证据块,并借助摘要增强(SA)添加全局摘要提示,在严格的令牌上限内构建紧凑的重排序上下文,(iii)使用仅解码器LLM进行重排序。在TREC DL'19、DL'23和MLDR-zh数据集上的实验表明,EviRerank在显著减少所需输入长度的同时,持续优于全文LLM重排序方法及强力的块选择基线模型。在TREC DL'19上,EviRerank取得了0.743的nDCG@10和0.307的MAP,创造了新的最佳结果,较RankLLaMA(0.701/0.288)分别提升了+0.042 nDCG@10(+6.0%)和+0.019 MAP(+6.6%)。

0
下载
关闭预览

相关内容

排序是计算机内经常进行的一种操作,其目的是将一组“无序”的记录序列调整为“有序”的记录序列。分内部排序和外部排序。若整个排序过程不需要访问外存便能完成,则称此类排序问题为内部排序。反之,若参加排序的记录数量很大,整个序列的排序过程不可能在内存中完成,则称此类排序问题为外部排序。内部排序的过程是一个逐步扩大记录的有序序列长度的过程。
【NeurIPS2024】TableRAG:基于语言模型的百万标记表格理解
专知会员服务
37+阅读 · 2024年10月8日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
高效的文本生成方法 — LaserTagger 现已开源
TensorFlow
30+阅读 · 2020年2月27日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员