The period from 2019 to the present marks one of the most significant paradigm shifts in information retrieval (IR) and natural language processing (NLP), culminating in the emergence of powerful large language models (LLMs) from 2022 onward. Methods based on pretrained encoder-only architectures (e.g., BERT) as well as decoder-only generative LLMs have outperformed many earlier approaches, demonstrating particularly strong performance in zero-shot scenarios and complex reasoning tasks. This survey examines the evolution of model architectures in IR, with a focus on two key aspects: backbone models for feature extraction and end-to-end system architectures for relevance estimation. To maintain analytical clarity, we deliberately separate architectural design from training methodologies, enabling a focused examination of structural innovations in IR systems. We trace the progression from traditional term-based retrieval models to modern neural approaches, highlighting the transformative impact of transformer-based architectures and subsequent LLM developments. The survey concludes with a forward-looking discussion of open challenges and emerging research directions, including architectural optimization for efficiency and scalability, robust handling of multimodal and multilingual data, and adaptation to novel application domains such as autonomous search agents, which may represent the next paradigm in IR.


翻译:2019年至今标志着信息检索(IR)与自然语言处理(NLP)领域经历了最重大的范式转变之一,并在2022年后催生了强大的大语言模型(LLMs)。基于预训练仅编码器架构(如BERT)的方法以及仅解码器生成式大语言模型已超越了许多早期方法,在零样本场景和复杂推理任务中展现出尤为卓越的性能。本综述审视了信息检索中模型架构的演进,重点关注两个关键方面:用于特征提取的骨干模型以及用于相关性估计的端到端系统架构。为保持分析的清晰性,我们有意将架构设计与训练方法分离,从而聚焦于信息检索系统的结构创新。我们追溯了从传统的基于词项的检索模型到现代神经方法的演进历程,强调了基于Transformer的架构及后续大语言模型发展所带来的变革性影响。综述最后对开放挑战与新兴研究方向进行了前瞻性讨论,包括面向效率与可扩展性的架构优化、对多模态与多语言数据的鲁棒处理,以及向自主搜索代理等新型应用领域的适配,这些可能代表了信息检索的下一个范式。

0
下载
关闭预览

相关内容

信息检索( Information Retrieval )指信息按一定的方式组织起来,并根据信息用户的需要找出有关的信息的过程和技术。信息检索的目标:准确、及时、全面的获取所需信息。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
大语言模型中的检索与结构化增强生成综述
专知会员服务
33+阅读 · 2025年9月17日
大型语言模型在生物信息学中的应用综述
专知会员服务
16+阅读 · 2025年3月15日
什么是后训练?大语言模型训练后优化方法综述,87页pdf
信息检索中模型架构综述
专知会员服务
19+阅读 · 2025年2月23日
多模态检索增强生成的综合综述
专知会员服务
44+阅读 · 2025年2月17日
如何提示?浙大最新《大型语言模型提示框架》综述
专知会员服务
83+阅读 · 2023年11月23日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月24日
Arxiv
12+阅读 · 2023年5月31日
VIP会员
相关基金
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员