Prompts can switch a model's behavior even when the weights are fixed, yet this phenomenon is rarely treated as a clean theoretical object rather than a heuristic. We study the family of functions obtainable by holding a Transformer backbone fixed as an executor and varying only the prompt. Our core idea is to view the prompt as an externally injected program and to construct a simplified Transformer that interprets it to implement different computations. The construction exposes a mechanism-level decomposition: attention performs selective routing from prompt memory, the FFN performs local arithmetic conditioned on retrieved fragments, and depth-wise stacking composes these local updates into a multi-step computation. Under this viewpoint, we prove a constructive existential result showing that a single fixed backbone can approximate a broad class of target behaviors via prompts alone. The framework provides a unified starting point for formalizing trade-offs under prompt length/precision constraints and for studying structural limits of prompt-based switching, while remaining distinct from empirical claims about pretrained LLMs.


翻译:提示可以在模型权重固定的情况下切换其行为,然而这一现象通常被视为启发式方法而非清晰的理论对象。本研究探讨了在保持Transformer骨干网络作为执行器固定的情况下,仅通过改变提示所能获得的功能族。我们的核心思想是将提示视为外部注入的程序,并构建一个简化的Transformer模型来解析提示以实现不同的计算。该构造揭示了机制层面的分解:注意力机制执行从提示记忆中选择性路由,前馈网络基于检索片段执行局部算术运算,而深度堆叠将这些局部更新组合成多步计算。在此视角下,我们通过构造性存在性证明表明:单个固定骨干网络仅通过提示即可近似实现广泛的目标行为类别。该框架为形式化提示长度/精度约束下的权衡关系、研究基于提示切换的结构性限制提供了统一的起点,同时与关于预训练大语言模型的实证主张保持区分。

0
下载
关闭预览

相关内容

大语言模型表示工程的分类、机会与挑战
专知会员服务
22+阅读 · 2025年2月28日
自动化提示工程综述:一种优化视角
专知会员服务
28+阅读 · 2025年2月18日
大型语言模型的高效提示方法综述
专知会员服务
75+阅读 · 2024年4月2日
大型语言模型中提示工程的系统综述:技术与应用
专知会员服务
81+阅读 · 2024年2月15日
长文本表示学习概述
云栖社区
15+阅读 · 2019年5月9日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
特征工程的特征理解(一)
机器学习研究会
10+阅读 · 2017年10月23日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员