We investigate the expressive power of state space models (SSM), which have recently emerged as a potential alternative to transformer architectures in large language models. Building on recent work, we analyse SSM expressiveness through fragments and extensions of linear temporal logic over finite traces. Our results show that the expressive capabilities of SSM vary substantially depending on the underlying gating mechanism. We further distinguish between SSM operating over fixed-width arithmetic (quantised models), whose expressive power remains within regular languages, and SSM with unbounded precision, which can capture counting properties and non-regular languages. In addition, we provide a systematic comparison between these different SSM variants and known results on transformers, thereby clarifying how the two architectures relate in terms of expressive power.


翻译:本文研究了状态空间模型(SSM)的表达能力,该模型近期作为Transformer架构的潜在替代方案在大语言模型中兴起。基于近期研究成果,我们通过有限迹上的线性时序逻辑片段及其扩展来分析SSM的表达能力。研究结果表明,SSM的表达能力因其底层门控机制的不同而存在显著差异。我们进一步区分了在固定位宽算术(量化模型)上运行的SSM(其表达能力仍限于正则语言范畴)与具有无限精度的SSM(后者能够捕获计数性质与非正则语言)。此外,我们对这些不同SSM变体与Transformer的已知研究成果进行了系统比较,从而阐明这两种架构在表达能力层面的关联性。

0
下载
关闭预览

相关内容

时间序列大模型综述
专知会员服务
46+阅读 · 2025年4月8日
时空基础模型:愿景、挑战与机遇
专知会员服务
41+阅读 · 2025年1月18日
时间序列和时空数据扩散模型综述
专知会员服务
64+阅读 · 2024年5月1日
非Transformer不可?最新《状态空间模型(SSM)》综述
专知会员服务
75+阅读 · 2024年4月16日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
时空序列预测方法综述
专知
22+阅读 · 2020年10月19日
深度多模态表示学习综述论文,22页pdf
专知
33+阅读 · 2020年6月21日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员