Standard attention stores keys/values losslessly but reads them via a per-head convex average, blocking channel-wise selection. We propose the Free Energy Mixer (FEM): a free-energy (log-sum-exp) read that applies a value-driven, per-channel log-linear tilt to a fast prior (e.g., from queries/keys in standard attention) over indices. Unlike methods that attempt to improve and enrich the $(q,k)$ scoring distribution, FEM treats it as a prior and yields a value-aware posterior read at unchanged complexity, smoothly moving from averaging to per-channel selection as the learnable inverse temperature increases, while still preserving parallelism and the original asymptotic complexity ($O(T^2)$ for softmax; $O(T)$ for linearizable variants). We instantiate a two-level gated FEM that is plug-and-play with standard and linear attention, linear RNNs and SSMs. It consistently outperforms strong baselines on NLP, vision, and time-series at matched parameter budgets.


翻译:标准注意力机制以无损方式存储键/值,但通过每个头部的凸平均进行读取,这阻碍了通道级选择。我们提出自由能混合器(FEM):一种自由能(对数求和指数)读取机制,它将对索引的快速先验(例如,来自标准注意力中的查询/键)施加一个由值驱动的、逐通道的对数线性倾斜。与试图改进和丰富$(q,k)$评分分布的方法不同,FEM将其视为先验,并以不变的复杂度产生一个值感知的后验读取,随着可学习的逆温度参数增加,平滑地从平均过渡到逐通道选择,同时仍保持并行性和原有的渐近复杂度(对于softmax为$O(T^2)$;对于可线性化变体为$O(T)$)。我们实例化了一个两级门控FEM,它可以即插即用地与标准及线性注意力、线性RNN和SSM结合使用。在参数预算匹配的情况下,它在NLP、视觉和时间序列任务上持续优于强基线模型。

0
下载
关闭预览

相关内容

TransMLA:多头潜在注意力(MLA)即为所需
专知会员服务
23+阅读 · 2025年2月13日
【CVPR2023】面向自监督视觉表示学习的混合自编码器
专知会员服务
25+阅读 · 2023年4月3日
主动学习预测结合自由能进行分子优化
专知会员服务
16+阅读 · 2022年9月18日
概述自动机器学习(AutoML)
人工智能学家
19+阅读 · 2019年8月11日
告别调参,AutoML新书发布
专知
14+阅读 · 2018年10月16日
入门 | 什么是自注意力机制?
机器之心
17+阅读 · 2018年8月19日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月5日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员