Despite their scale and success, modern transformers are usually trained as single-minded systems: optimization produces a deterministic set of parameters, representing a single functional hypothesis about the data. Motivated by the analogy to human populations, in which population-level intelligence emerges from diverse individual behaviors, we propose Population Bayesian Transformers (B-Trans), which enable sampling diverse yet coherent transformer large language model instances (hereafter referred to as a 'mind') from a single pre-trained LLM. B-Trans introduces a Bayesian-inspired posterior proxy by injecting stochasticity directly into normalization layers, avoiding the prohibitive cost of training full Bayesian neural networks. Sampling from this proxy yields a population of minds with diverse behaviors while maintaining general competence. During the generation of each response, we sample a single realization from the random distribution and hold it fixed, ensuring temporal consistency and reasoning coherence. Experiments on zero-shot generation and Reinforcement Learning with Verifiable Rewards (RLVR) demonstrate that B-Trans effectively leverages the stochastic model diversity, yielding superior response diversity while achieving better task performance compared to deterministic baselines.


翻译:尽管规模庞大且成效显著,现代Transformer通常被训练为单一心智系统:优化过程产生一组确定性参数,代表对数据的单一功能假设。受人类群体智能的启发——群体层面的智能源自多样化的个体行为,我们提出群体贝叶斯Transformer(B-Trans),该模型能够从单个预训练大语言模型中采样生成多样且连贯的Transformer大语言模型实例(下文称为“心智”)。B-Trans通过直接在归一化层注入随机性,引入贝叶斯启发的后验代理,避免了训练完整贝叶斯神经网络的高昂成本。从该代理采样可获得具有多样化行为模式的心智群体,同时保持通用能力。在生成每个响应时,我们从随机分布中采样单个实现并保持其固定,确保时间一致性与推理连贯性。在零样本生成和可验证奖励强化学习(RLVR)上的实验表明,B-Trans能有效利用随机模型多样性,在获得更优任务性能的同时,相比确定性基线模型产生更卓越的响应多样性。

0
下载
关闭预览

相关内容

《多智能体学习中的神经多样性研究》最新200页
专知会员服务
26+阅读 · 2025年9月12日
【剑桥博士论文】多智能体学习中的神经多样性
专知会员服务
21+阅读 · 2025年8月22日
基于Transformer模型的数据模态转换综述
专知会员服务
39+阅读 · 2024年8月17日
Meta-Transformer:多模态学习的统一框架
专知会员服务
59+阅读 · 2023年7月21日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
从头开始了解Transformer
AI科技评论
25+阅读 · 2019年8月28日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
12+阅读 · 2019年1月8日
贝叶斯机器学习前沿进展
机器学习研究会
21+阅读 · 2018年1月21日
从概率论到多分类问题:综述贝叶斯统计分类
机器之心
13+阅读 · 2017年9月28日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月18日
Arxiv
0+阅读 · 2月3日
VIP会员
相关资讯
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
从头开始了解Transformer
AI科技评论
25+阅读 · 2019年8月28日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
12+阅读 · 2019年1月8日
贝叶斯机器学习前沿进展
机器学习研究会
21+阅读 · 2018年1月21日
从概率论到多分类问题:综述贝叶斯统计分类
机器之心
13+阅读 · 2017年9月28日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员