Vision-Language Models like CLIP create aligned embedding spaces for text and images, making it possible for anyone to build a visual classifier by simply naming the classes they want to distinguish. However, a model that works well in one domain may fail in another, and non-expert users have no straightforward way to assess whether their chosen VLM will work on their problem. We build on prior work using text-only comparisons to evaluate how well a model works for a given natural language task, and explore approaches that also generate synthetic images relevant to that task to evaluate and refine the prediction of zero-shot accuracy. We show that generated imagery to the baseline text-only scores substantially improves the quality of these predictions. Additionally, it gives a user feedback on the kinds of images that were used to make the assessment. Experiments on standard CLIP benchmark datasets demonstrate that the image-based approach helps users predict, without any labeled examples, whether a VLM will be effective for their application.


翻译:如CLIP等视觉-语言模型构建了文本与图像的对齐嵌入空间,使得任何用户仅需指定待区分的类别名称即可构建视觉分类器。然而,在某一领域表现优异的模型可能在另一领域失效,且非专业用户缺乏直接评估所选视觉-语言模型是否适用于其特定问题的有效方法。本研究基于先前仅通过文本比对评估模型在自然语言任务中表现的工作,进一步探索了生成与任务相关的合成图像以评估和优化零样本准确率预测的方法。实验表明,在基线纯文本评分基础上引入生成图像能显著提升预测质量。此外,该方法可为用户提供用于评估的图像类型反馈。在标准CLIP基准数据集上的实验证明,这种基于图像的方法能帮助用户在无需任何标注样本的情况下,有效预测视觉-语言模型是否适用于其目标应用场景。

0
下载
关闭预览

相关内容

为什么视觉嵌入语言模型在图像分类上表现差?
专知会员服务
22+阅读 · 2024年11月30日
【CVPR2023】零样本模型诊断
专知会员服务
32+阅读 · 2023年3月29日
专知会员服务
52+阅读 · 2021年5月15日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
97+阅读 · 2020年5月31日
深度学习在文本分类中的应用
AI研习社
13+阅读 · 2018年1月7日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员