We formalise recursive self-training in Large Language Models (LLMs) and Generative AI as a discrete-time dynamical system and prove that, as training data become increasingly self-generated ($α_t \to 0$), the system undergoes inevitably degenerative dynamics. We derive two fundamental failure modes: (1) Entropy Decay, where finite sampling effects cause a monotonic loss of distributional diversity (mode collapse), and (2) Variance Amplification, where the loss of external grounding causes the model's representation of truth to drift as a random walk, bounded only by the support diameter. We show these behaviours are not contingent on architecture but are consequences of distributional learning on finite samples. We further argue that Reinforcement Learning with imperfect verifiers suffers similar semantic collapse. To overcome these limits, we propose a path involving symbolic regression and program synthesis guided by Algorithmic Probability. The Coding Theorem Method (CTM) allows for identifying generative mechanisms rather than mere correlations, escaping the data-processing inequality that binds standard statistical learning. We conclude that while purely distributional learning leads to model collapse, hybrid neurosymbolic approaches offer a coherent framework for sustained self-improvement.


翻译:我们将大语言模型(LLM)与生成式人工智能中的递归自训练形式化为离散时间动力系统,并证明当训练数据日益由自生成数据主导($α_t \to 0$)时,该系统不可避免地经历退化动力学。我们推导出两种根本性的失效模式:(1)熵衰减,即有限采样效应导致分布多样性单调损失(模式崩溃);(2)方差放大,即外部锚定信息的缺失导致模型对“真实”的表征以随机游走方式漂移,其边界仅受支撑集直径的限制。我们证明这些行为并非取决于特定架构,而是在有限样本上进行分布学习的必然结果。我们进一步论证,基于不完美验证器的强化学习也会遭受类似的语义崩溃。为克服这些限制,我们提出了一条结合符号回归与程序合成的路径,并以算法概率为指导。编码定理方法(CTM)能够识别生成机制而非仅仅相关性,从而规避了束缚传统统计学习的数据处理不等式。我们的结论是:纯粹的分布学习将导致模型崩溃,而混合神经符号方法为持续自我改进提供了一个连贯的框架。

0
下载
关闭预览

相关内容

大型语言模型的规模效应局限
专知会员服务
14+阅读 · 2025年11月18日
多模态大语言模型的自我改进:综述
专知会员服务
25+阅读 · 2025年10月8日
174页!《大语言模型》最新综述:能力与局限性分析
专知会员服务
63+阅读 · 2025年1月12日
大语言模型的因果性
专知会员服务
40+阅读 · 2024年10月22日
《大语言模型的数据合成与增强综述》
专知会员服务
43+阅读 · 2024年10月19日
大语言模型的终身学习综述
专知会员服务
75+阅读 · 2024年6月15日
大模型如何迭代?北大等《大型语言模型自我进化》综述
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
大型语言模型的规模效应局限
专知会员服务
14+阅读 · 2025年11月18日
多模态大语言模型的自我改进:综述
专知会员服务
25+阅读 · 2025年10月8日
174页!《大语言模型》最新综述:能力与局限性分析
专知会员服务
63+阅读 · 2025年1月12日
大语言模型的因果性
专知会员服务
40+阅读 · 2024年10月22日
《大语言模型的数据合成与增强综述》
专知会员服务
43+阅读 · 2024年10月19日
大语言模型的终身学习综述
专知会员服务
75+阅读 · 2024年6月15日
大模型如何迭代?北大等《大型语言模型自我进化》综述
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员