The need for interpretability in deep learning has driven interest in counterfactual explanations, which identify minimal changes to an instance that change a model's prediction. Current counterfactual (CF) generation methods require task-specific fine-tuning and produce low-quality text. Large Language Models (LLMs), though effective for high-quality text generation, struggle with label-flipping counterfactuals (i.e., counterfactuals that change the prediction) without fine-tuning. We introduce two simple classifier-guided approaches to support counterfactual generation by LLMs, eliminating the need for fine-tuning while preserving the strengths of LLMs. Despite their simplicity, our methods outperform state-of-the-art counterfactual generation methods and are effective across different LLMs, highlighting the benefits of guiding counterfactual generation by LLMs with classifier information. We further show that data augmentation by our generated CFs can improve a classifier's robustness. Our analysis reveals a critical issue in counterfactual generation by LLMs: LLMs rely on parametric knowledge rather than faithfully following the classifier.


翻译:深度学习对可解释性的需求推动了反事实解释的研究兴趣,此类解释旨在识别改变模型预测所需的最小实例修改。当前的反事实生成方法需要针对特定任务进行微调,且生成的文本质量较低。大型语言模型虽能有效生成高质量文本,但在未经微调的情况下难以实现标签翻转的反事实(即改变预测结果的反事实)。我们引入了两种简单的分类器引导方法,以支持大型语言模型生成反事实,无需微调即可保留大型语言模型的优势。尽管方法简洁,我们的方法在性能上超越了当前最先进的反事实生成技术,并在不同大型语言模型中均表现有效,突显了利用分类器信息引导大型语言模型进行反事实生成的益处。我们进一步证明,通过生成的反事实进行数据增强可提升分类器的鲁棒性。分析揭示了一个大型语言模型反事实生成中的关键问题:大型语言模型依赖于参数化知识,而非忠实遵循分类器的决策逻辑。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
Top
微信扫码咨询专知VIP会员