成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
自注意力
关注
13
利用注意力机制来“动态”地生成不同连接的权重,这就是自注意力模型(Self-Attention Model). 注意力机制模仿了生物观察行为的内部过程,即一种将内部经验和外部感觉对齐从而增加部分区域的观察精细度的机制。注意力机制可以快速提取稀疏数据的重要特征,因而被广泛用于自然语言处理任务,特别是机器翻译。而自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性
综合
百科
VIP
热门
动态
论文
精华
LoLep: Single-View View Synthesis with Locally-Learned Planes and Self-Attention Occlusion Inference
Arxiv
0+阅读 · 2月19日
Transformers for Tabular Data: A Training Perspective of Self-Attention via Optimal Transport
Arxiv
0+阅读 · 2月18日
Bottleneck Transformer-Based Approach for Improved Automatic STOI Score Prediction
Arxiv
0+阅读 · 2月17日
Efficient-LVSM: Faster, Cheaper, and Better Large View Synthesis Model via Decoupled Co-Refinement Attention
Arxiv
0+阅读 · 2月6日
Central Dogma Transformer II: An AI Microscope for Understanding Cellular Regulatory Mechanisms
Arxiv
0+阅读 · 2月9日
Efficient Graph Knowledge Distillation from GNNs to Kolmogorov--Arnold Networks via Self-Attention Dynamic Sampling
Arxiv
0+阅读 · 2月9日
Selective Synchronization Attention
Arxiv
0+阅读 · 2月16日
Hilbert-Guided Sparse Local Attention
Arxiv
0+阅读 · 2月12日
VariViT: A Vision Transformer for Variable Image Sizes
Arxiv
0+阅读 · 2月16日
ViCA: Efficient Multimodal LLMs with Vision-Only Cross-Attention
Arxiv
0+阅读 · 2月7日
Cross-Attention Speculative Decoding
Arxiv
0+阅读 · 2月11日
Revisiting Transformers with Insights from Image Filtering and Boosting
Arxiv
0+阅读 · 2月8日
Two failure modes of deep transformers and how to avoid them: a unified theory of signal propagation at initialisation
Arxiv
0+阅读 · 2月9日
Self-Attention Decomposition For Training Free Diffusion Editing
Arxiv
0+阅读 · 2月12日
TRecViT: A Recurrent Video Transformer
Arxiv
0+阅读 · 2月15日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top