In the field of Image-Text Retrieval (ITR), recent advancements have leveraged large-scale Vision-Language Pretraining (VLP) for Fine-Grained (FG) instance-level retrieval, achieving high accuracy at the cost of increased computational complexity. For Coarse-Grained (CG) category-level retrieval, prominent approaches employ Cross-Modal Hashing (CMH) to prioritise efficiency, albeit at the cost of retrieval performance. Due to differences in methodologies, FG and CG models are rarely compared directly within evaluations in the literature, resulting in a lack of empirical data quantifying the retrieval performance-efficiency tradeoffs between the two. This paper addresses this gap by introducing the FiCo-ITR library, which standardises evaluation methodologies for both FG and CG models, facilitating direct comparisons. We conduct empirical evaluations of representative models from both subfields, analysing precision, recall, and computational complexity across varying data scales. Our findings offer new insights into the performance-efficiency trade-offs between recent representative FG and CG models, highlighting their respective strengths and limitations. These findings provide the foundation necessary to make more informed decisions regarding model selection for specific retrieval tasks and highlight avenues for future research into hybrid systems that leverage the strengths of both FG and CG approaches.


翻译:在图文检索领域,近期进展利用大规模视觉语言预训练进行细粒度实例级检索,虽获得了高精度,却以增加计算复杂度为代价。对于粗粒度类别级检索,主流方法采用跨模态哈希以优先保证效率,但检索性能有所牺牲。由于方法论的差异,现有文献中的评估很少直接比较细粒度与粗粒度模型,导致缺乏量化两者间检索性能与效率权衡的经验数据。本文通过引入FiCo-ITR库来填补这一空白,该库标准化了细粒度与粗粒度模型的评估方法,从而促进了直接比较。我们对两个子领域的代表性模型进行了实证评估,分析了不同数据规模下的精确率、召回率与计算复杂度。我们的研究结果对近期代表性细粒度与粗粒度模型之间的性能-效率权衡提供了新的见解,并阐明了它们各自的优势与局限。这些发现为针对特定检索任务做出更明智的模型选择提供了必要基础,并指明了未来研究的潜在方向,即开发能够结合细粒度与粗粒度方法优势的混合系统。

0
下载
关闭预览

相关内容

【ICML2025】FG-CLIP:细粒度视觉与文本对齐
专知会员服务
8+阅读 · 2025年5月18日
细粒度图像分类的深度学习方法
专知会员服务
43+阅读 · 2021年10月18日
【康奈尔大学】度量数据粒度,Measuring Dataset Granularity
专知会员服务
13+阅读 · 2019年12月27日
【旷视出品】细粒度图像分析综述
专知
15+阅读 · 2019年7月11日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员