Recommendation model interpretation aims to reveal the relationships between inputs, model internal representations and outputs to enhance the transparency, interpretability, and trustworthiness of recommendation systems. However, the inherent complexity and opacity of deep learning models pose challenges for model-level interpretation. Moreover, most existing methods for interpreting recommendation models are tailored to specific architectures or model types, limiting their generalizability across different types of recommenders. In this paper, we propose RecSAE, a generalizable probing framework that interprets Recommendation models with Sparse AutoEncoders. The framework extracts interpretable latents from the internal representations of recommendation models, and links them to semantic concepts for interpretations. It does not alter original models during interpretations and also enables targeted tuning to models. Experiments on three types of recommendation models (general, graph-based, sequential) with four widely used public datasets demonstrate the effectiveness and generalization of RecSAE framework. The interpreted concepts are further validated by human experts, showing strong alignment with human perception. Overall, RecSAE serves as a novel step in both model-level interpretations to various types of recommendation models without affecting their functions and offering potential for targeted tuning of models.


翻译:推荐模型解释旨在揭示输入、模型内部表示与输出之间的关系,以增强推荐系统的透明度、可解释性与可信度。然而,深度学习模型固有的复杂性与不透明性为模型级解释带来了挑战。此外,现有的大多数推荐模型解释方法均针对特定架构或模型类型设计,限制了其在不同类型推荐器间的泛化能力。本文提出RecSAE,一种基于稀疏自编码器的通用探测框架,用于解释推荐模型。该框架从推荐模型的内部表示中提取可解释的潜在变量,并将其与语义概念关联以实现解释。该框架在解释过程中不修改原始模型,同时支持对模型进行定向调优。在三种类型推荐模型(通用型、基于图、序列型)及四个广泛使用的公开数据集上的实验验证了RecSAE框架的有效性与泛化能力。经解释的概念进一步由领域专家验证,显示出与人类认知的高度一致性。总体而言,RecSAE在不影响各类推荐模型功能的前提下,为模型级解释提供了新的研究路径,并为模型的定向调优提供了潜在可能。

0
下载
关闭预览

相关内容

稀疏自编码器综述:解释大语言模型的内部机制
专知会员服务
17+阅读 · 2025年12月27日
可解释图推荐系统
专知会员服务
24+阅读 · 2024年8月4日
可解释的机器学习模型和架构
专知会员服务
92+阅读 · 2023年9月17日
【CIKM2020】推荐系统的神经模板解释生成
专知会员服务
34+阅读 · 2020年9月9日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
一文看懂AutoEncoder模型演进图谱
AINLP
12+阅读 · 2019年6月17日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月27日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员