成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
线性注意力
关注
0
综合
百科
VIP
热门
动态
论文
精华
Tiled Flash Linear Attention: More Efficient Linear RNN and xLSTM Kernels
Arxiv
0+阅读 · 2025年12月28日
Linear Attention for Joint Power Optimization and User-Centric Clustering in Cell-Free Networks
Arxiv
0+阅读 · 2025年12月19日
Distilling to Hybrid Attention Models via KL-Guided Layer Selection
Arxiv
0+阅读 · 2025年12月23日
Unifying Linear-Time Attention via Latent Probabilistic Modelling
Arxiv
0+阅读 · 2025年12月2日
Kimi Linear: An Expressive, Efficient Attention Architecture
Arxiv
0+阅读 · 2025年11月1日
LAWCAT: Efficient Distillation from Quadratic to Linear Attention with Convolution across Tokens for Long Context Modeling
Arxiv
0+阅读 · 2025年11月4日
Error-Free Linear Attention is a Free Lunch: Exact Solution from Continuous-Time Dynamics
Arxiv
0+阅读 · 2025年12月14日
Softmax as Linear Attention in the Large-Prompt Regime: a Measure-based Perspective
Arxiv
0+阅读 · 2025年12月12日
RATTENTION: Towards the Minimal Sliding Window Size in Local-Global Attention Models
Arxiv
0+阅读 · 2025年11月17日
SLA: Beyond Sparsity in Diffusion Transformers via Fine-Tunable Sparse-Linear Attention
Arxiv
0+阅读 · 2025年11月19日
IMSE: Efficient U-Net-based Speech Enhancement using Inception Depthwise Convolution and Amplitude-Aware Linear Attention
Arxiv
0+阅读 · 2025年12月1日
IMSE: Efficient U-Net-based Speech Enhancement using Inception Depthwise Convolution and Amplitude-Aware Linear Attention
Arxiv
0+阅读 · 2025年11月18日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top