成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
自注意力
关注
13
利用注意力机制来“动态”地生成不同连接的权重,这就是自注意力模型(Self-Attention Model). 注意力机制模仿了生物观察行为的内部过程,即一种将内部经验和外部感觉对齐从而增加部分区域的观察精细度的机制。注意力机制可以快速提取稀疏数据的重要特征,因而被广泛用于自然语言处理任务,特别是机器翻译。而自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性
综合
百科
VIP
热门
动态
论文
精华
SympFormer: Accelerated attention blocks via Inertial Dynamics on Density Manifolds
Arxiv
0+阅读 · 3月17日
Position-Aware Sequential Attention for Accurate Next Item Recommendations
Arxiv
0+阅读 · 2月24日
Training Dynamics of Softmax Self-Attention: Fast Global Convergence via Preconditioning
Arxiv
0+阅读 · 3月2日
Visual Fixation-Based Retinal Prosthetic Simulation
Arxiv
0+阅读 · 2月20日
Parameter-Efficient Domain Adaptation of Physics-Informed Self-Attention based GNNs for AC Power Flow Prediction
Arxiv
0+阅读 · 2月20日
RMAAT: Astrocyte-Inspired Memory Compression and Replay for Efficient Long-Context Transformers
Arxiv
0+阅读 · 2月28日
Self-Attention And Beyond the Infinite: Towards Linear Transformers with Infinite Self-Attention
Arxiv
0+阅读 · 3月10日
LinVideo: A Post-Training Framework towards O(n) Attention in Efficient Video Generation
Arxiv
0+阅读 · 2月22日
Feature Importance-Aware Deep Joint Source-Channel Coding for Computationally Efficient and Adjustable Image Transmission
Arxiv
0+阅读 · 3月12日
LoLep: Single-View View Synthesis with Locally-Learned Planes and Self-Attention Occlusion Inference
Arxiv
0+阅读 · 2月19日
Transformers for Tabular Data: A Training Perspective of Self-Attention via Optimal Transport
Arxiv
0+阅读 · 2月18日
Bottleneck Transformer-Based Approach for Improved Automatic STOI Score Prediction
Arxiv
0+阅读 · 2月17日
Efficient-LVSM: Faster, Cheaper, and Better Large View Synthesis Model via Decoupled Co-Refinement Attention
Arxiv
0+阅读 · 2月6日
Central Dogma Transformer II: An AI Microscope for Understanding Cellular Regulatory Mechanisms
Arxiv
0+阅读 · 2月9日
Efficient Graph Knowledge Distillation from GNNs to Kolmogorov--Arnold Networks via Self-Attention Dynamic Sampling
Arxiv
0+阅读 · 2月9日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top