成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
稀疏自编码器
关注
16
稀疏自编码器是一种无监督机器学习算法,通过计算自编码的输出与原输入的误差,不断调节自编码器的参数,最终训练出模型。自编码器可以用于压缩输入信息,提取有用的输入特征。
综合
百科
VIP
热门
动态
论文
精华
Facet-Level Persona Control by Trait-Activated Routing with Contrastive SAE for Role-Playing LLMs
Arxiv
0+阅读 · 2月22日
Sparse Autoencoders Can Capture Language-Specific Concepts Across Diverse Languages
Arxiv
0+阅读 · 2月23日
Stable and Steerable Sparse Autoencoders with Weight Regularization
Arxiv
0+阅读 · 3月4日
Mechanistic Interpretability with Sparse Autoencoder Neural Operators
Arxiv
0+阅读 · 2月23日
How Do LLMs Encode Scientific Quality? An Empirical Study Using Monosemantic Features from Sparse Autoencoders
Arxiv
0+阅读 · 2月22日
Unveiling Decision-Making in LLMs for Text Classification : Extraction of influential and interpretable concepts with Sparse Autoencoders
Arxiv
0+阅读 · 2月20日
Step-Level Sparse Autoencoder for Reasoning Process Interpretation
Arxiv
0+阅读 · 3月3日
Sparse Autoencoders for Sequential Recommendation Models: Interpretation and Flexible Control
Arxiv
0+阅读 · 2月17日
Toward Faithful Retrieval-Augmented Generation with Sparse Autoencoders
Arxiv
0+阅读 · 2月11日
AudioSAE: Towards Understanding of Audio-Processing Models with Sparse AutoEncoders
Arxiv
0+阅读 · 2月6日
Sparse Autoencoders are Capable LLM Jailbreak Mitigators
Arxiv
0+阅读 · 2月12日
Control Reinforcement Learning: Interpretable Token-Level Steering of LLMs via Sparse Autoencoder Features
Arxiv
0+阅读 · 2月12日
From Atoms to Trees: Building a Structured Feature Forest with Hierarchical Sparse Autoencoders
Arxiv
0+阅读 · 2月12日
Sanity Checks for Sparse Autoencoders: Do SAEs Beat Random Baselines?
Arxiv
0+阅读 · 2月15日
AudioSAE: Towards Understanding of Audio-Processing Models with Sparse AutoEncoders
Arxiv
0+阅读 · 2月4日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top