The dominant narrative of artificial intelligence development assumes that progress is continuous and that capability scales monotonically with model size. We challenge both assumptions. Drawing on punctuated equilibrium theory from evolutionary biology, we show that AI development proceeds not through smooth advancement but through extended periods of stasis interrupted by rapid phase transitions that reorganize the competitive landscape. We identify five such eras since 1943 and four epochs within the current Generative AI Era, each initiated by a discontinuous event -- from the transformer architecture to the DeepSeek Moment -- that rendered the prior paradigm subordinate. To formalize the selection pressures driving these transitions, we develop the Institutional Fitness Manifold, a mathematical framework that evaluates AI systems along four dimensions: capability, institutional trust, affordability, and sovereign compliance. The central result is the Institutional Scaling Law, which proves that institutional fitness is non-monotonic in model scale. Beyond an environment-specific optimum, scaling further degrades fitness as trust erosion and cost penalties outweigh marginal capability gains. This directly contradicts classical scaling laws and carries a strong implication: orchestrated systems of smaller, domain-adapted models can mathematically outperform frontier generalists in most institutional deployment environments. We derive formal conditions under which this inversion holds and present supporting empirical evidence spanning frontier laboratory dynamics, post-training alignment evolution, and the rise of sovereign AI as a geopolitical selection pressure.


翻译:人工智能发展的主流叙事假定进步是连续的,且能力随模型规模单调增长。我们挑战这两个假设。借鉴进化生物学中的间断平衡理论,我们表明AI的发展并非通过平滑的进步,而是通过长期的停滞期被快速相变所打断,这些相变重组了竞争格局。我们识别出自1943年以来的五个这样的时代,以及当前生成式AI时代内的四个纪元,每个纪元都由一个不连续事件(从Transformer架构到DeepSeek时刻)所引发,这些事件使得先前的范式变得从属。为了形式化驱动这些转变的选择压力,我们提出了制度适应度流形,这是一个数学框架,从四个维度评估AI系统:能力、制度信任、可负担性和主权合规性。核心结果是制度适应度标度律,它证明了制度适应度在模型规模上并非单调的。超过环境特定的最优值后,进一步的规模扩大会降低适应度,因为信任侵蚀和成本惩罚超过了边际能力收益。这直接与经典标度律相矛盾,并蕴含一个强烈的推论:在大多数制度部署环境中,由较小的、领域适应模型组成的协调系统在数学上能够超越前沿通用模型。我们推导了这种逆转成立的形式条件,并提供了支持性的经验证据,涵盖前沿实验室动态、训练后对齐演化,以及作为地缘政治选择压力的主权AI的兴起。

0
下载
关闭预览

相关内容

制度是包括为社会生活提供稳定性和意义的强制性、规范性和文化认同性要素所构成的社会活动和资源。
人工智能行业专题:AI产业链分析与展望
专知会员服务
62+阅读 · 2023年8月24日
“平衡发展”的人工智能治理白皮书
专知会员服务
33+阅读 · 2022年10月10日
人工智能和军备控制,80页pdf
专知
15+阅读 · 2022年11月2日
【人机融合智能】人机融合智能的现状与展望
产业智能官
12+阅读 · 2020年3月18日
AI综述专栏|多模态学习研究进展综述
人工智能前沿讲习班
64+阅读 · 2018年7月13日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
AIs and Humans with Agency
Arxiv
0+阅读 · 5月4日
Arxiv
0+阅读 · 4月20日
VIP会员
最新内容
世界动作模型: 具身AI的下一个前沿
专知会员服务
0+阅读 · 今天12:28
全球十大防空反导系统:列表、射程与用途
专知会员服务
10+阅读 · 今天3:53
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员