Over the last years, state-tracking tasks, particularly permutation composition, have become a testbed to understand the limits of sequence models architectures like Transformers and RNNs (linear and non-linear). However, these are often sequence-to-sequence tasks: learning to map actions (permutations) to states, which is incompatible with the next-token prediction setting commonly used to train language models. We address this gap by converting permutation composition into code via REPL traces that interleave state-reveals through prints and variable transformations. We show that linear RNNs capable of state-tracking excel also in this setting, while Transformers still fail. Motivated by this representation, we investigate why tracking states in code is generally difficult: actions are not always fully observable. We frame this as tracking the state of a probabilistic finite-state automaton with deterministic state reveals and show that linear RNNs can be worse than non-linear RNNs at tracking states in this setup.


翻译:近年来,状态追踪任务,特别是置换组合任务,已成为理解Transformer和RNN(线性和非线性)等序列模型架构能力边界的测试平台。然而,这些通常是序列到序列任务:学习将动作(置换)映射到状态,这与通常用于训练语言模型的下一词预测设置不兼容。我们通过将置换组合转换为代码来解决这一差距,具体方式是利用REPL跟踪记录,通过打印语句和变量变换交错揭示状态。我们证明,能够进行状态追踪的线性RNN在此设置下同样表现出色,而Transformer仍然失败。受此表示方法的启发,我们探究了在代码中追踪状态通常困难的原因:动作并非总是完全可观测的。我们将此问题形式化为跟踪具有确定性状态揭示的概率有限状态自动机的状态,并证明在此设置下,线性RNN在状态追踪方面可能劣于非线性RNN。

0
下载
关闭预览

相关内容

RNN:循环神经网络,是深度学习的一种模型。
【CVPR2024】掩码自解码器是有效的多任务视觉通用模型
专知会员服务
20+阅读 · 2024年3月16日
【字节跳动-李航】一种按序列进行对话状态跟踪的方法
专知会员服务
30+阅读 · 2020年11月25日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
十分钟掌握Keras实现RNN的seq2seq学习
机器学习研究会
11+阅读 · 2017年10月13日
国家自然科学基金
6+阅读 · 2017年6月30日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Arxiv
0+阅读 · 1月23日
VIP会员
相关VIP内容
【CVPR2024】掩码自解码器是有效的多任务视觉通用模型
专知会员服务
20+阅读 · 2024年3月16日
【字节跳动-李航】一种按序列进行对话状态跟踪的方法
专知会员服务
30+阅读 · 2020年11月25日
相关基金
国家自然科学基金
6+阅读 · 2017年6月30日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员