成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
Transformer
关注
244
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
综合
百科
荟萃
VIP
热门
动态
论文
精华
Efficient Context Propagating Perceiver Architectures for Auto-Regressive Language Modeling
Arxiv
0+阅读 · 2月19日
DDiT: Dynamic Patch Scheduling for Efficient Diffusion Transformers
Arxiv
0+阅读 · 2月19日
A Study on Inference Latency for Vision Transformers on Mobile Devices
Arxiv
0+阅读 · 2月18日
Auditing Reciprocal Sentiment Alignment: Inversion Risk, Dialect Representation and Intent Misalignment in Transformers
Arxiv
0+阅读 · 2月19日
Simple Self Organizing Map with Vision Transformers
Arxiv
0+阅读 · 2月18日
Probability Distributions Computed by Hard-Attention Transformers
Arxiv
0+阅读 · 2月19日
Block-Recurrent Dynamics in Vision Transformers
Arxiv
0+阅读 · 2月19日
Reconstructing KV Caches with Cross-layer Fusion For Enhanced Transformers
Arxiv
0+阅读 · 2月19日
Representation Collapse in Machine Translation Through the Lens of Angular Dispersion
Arxiv
0+阅读 · 2月19日
ReplaceMe: Network Simplification via Depth Pruning and Transformer Block Linearization
Arxiv
0+阅读 · 2月19日
A statistical perspective on transformers for small longitudinal cohort data
Arxiv
0+阅读 · 2月18日
Amber-Image: Efficient Compression of Large-Scale Diffusion Transformers
Arxiv
0+阅读 · 2月19日
Transformers for Tabular Data: A Training Perspective of Self-Attention via Optimal Transport
Arxiv
0+阅读 · 2月18日
Chain of Thought in Order: Discovering Learning-Friendly Orders for Arithmetic
Arxiv
0+阅读 · 2月18日
Synthesis and Verification of Transformer Programs
Arxiv
0+阅读 · 2月18日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top