Hard negatives are essential for training effective retrieval models. Hard-negative mining typically relies on ranking documents using cross-encoders or static embedding models based on similarity metrics such as cosine distance. Hard negative mining becomes challenging for biomedical and scientific domains due to the difficulty in distinguishing between source and hard negative documents. However, referenced documents naturally share contextual relevance with the source document but are not duplicates, making them well-suited as hard negatives. In this work, we propose BiCA: Biomedical Dense Retrieval with Citation-Aware Hard Negatives, an approach for hard-negative mining by utilizing citation links in 20,000 PubMed articles for improving a domain-specific small dense retriever. We fine-tune the GTE_small and GTE_Base models using these citation-informed negatives and observe consistent improvements in zero-shot dense retrieval using nDCG@10 for both in-domain and out-of-domain tasks on BEIR and outperform baselines on long-tailed topics in LoTTE using Success@5. Our findings highlight the potential of leveraging document link structure to generate highly informative negatives, enabling state-of-the-art performance with minimal fine-tuning and demonstrating a path towards highly data-efficient domain adaptation.


翻译:困难负样本对于训练有效的检索模型至关重要。困难负样本挖掘通常依赖于使用交叉编码器或基于余弦距离等相似性度量的静态嵌入模型对文档进行排序。在生物医学和科学领域,由于难以区分源文档与困难负样本文档,困难负样本挖掘变得具有挑战性。然而,被引用的文档天然与源文档具有上下文关联性且非重复文档,这使其非常适合作为困难负样本。本研究提出BiCA:基于引文感知困难负样本的生物医学稠密检索方法,该方法通过利用20,000篇PubMed文献中的引文链接进行困难负样本挖掘,以改进领域专用的小型稠密检索器。我们使用这些基于引文信息的负样本对GTE_small和GTE_Base模型进行微调,在BEIR基准的领域内和跨域任务中通过nDCG@10指标观察到零样本稠密检索性能的持续提升,并在LoTTE基准的长尾主题任务中使用Success@5指标超越基线模型。我们的研究结果表明,利用文档链接结构生成高信息量的负样本具有巨大潜力,能够以极少的微调实现最先进的性能,并为高数据效率的领域适应提供了可行路径。

0
下载
关闭预览

相关内容

【AAAI2025】TimeDP:通过领域提示学习生成多领域时间序列
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员