成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
Softmax
关注
0
综合
百科
VIP
热门
动态
论文
精华
2Mamba2Furious: Linear in Complexity, Competitive in Accuracy
Arxiv
0+阅读 · 2月19日
DRetHTR: Linear-Time Decoder-Only Retentive Network for Handwritten Text Recognition
Arxiv
0+阅读 · 2月19日
High entropy leads to symmetry equivariant policies in Dec-POMDPs
Arxiv
0+阅读 · 2月17日
HLA: Hadamard Linear Attention
Arxiv
0+阅读 · 2月12日
ABI: A tightly integrated, unified, sparsity-aware, reconfigurable, compute near-register file/cache GPU architecture with light-weight softmax for deep learning, linear algebra, and Ising compute
Arxiv
0+阅读 · 2月15日
Efficient Softmax Reformulation for Homomorphic Encryption via Moment Generating Function
Arxiv
0+阅读 · 2月9日
Fast Model Selection and Stable Optimization for Softmax-Gated Multinomial-Logistic Mixture of Experts Models
Arxiv
0+阅读 · 2月8日
Multipole Semantic Attention: A Fast Approximation of Softmax Attention for Pretraining
Arxiv
0+阅读 · 2月13日
H-FA: A Hybrid Floating-Point and Logarithmic Approach to Hardware Accelerated FlashAttention
Arxiv
0+阅读 · 2月9日
DirMoE: Dirichlet-routed Mixture of Experts
Arxiv
0+阅读 · 2月9日
Lightweight Cluster-Based Federated Learning for Intrusion Detection in Heterogeneous IoT Networks
Arxiv
0+阅读 · 2月13日
Rethinking Approximate Gaussian Inference in Classification
Arxiv
0+阅读 · 2月11日
Orthogonal Self-Attention
Arxiv
0+阅读 · 2月5日
ZeroS: Zero-Sum Linear Attention for Efficient Transformers
Arxiv
0+阅读 · 2月5日
Sparse Attention as Compact Kernel Regression
Arxiv
0+阅读 · 2月4日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top