Practitioners have access to an abundance of language models and prompting strategies for solving many language modeling tasks; yet prior work shows that modeling performance is highly sensitive to both choices. Classical machine learning ensembling techniques offer a principled approach: aggregate predictions from multiple sources to achieve better performance than any single one. However, applying ensembling to language models during decoding is challenging: naively aggregating next-token probabilities yields samples from a locally normalized, biased approximation of the generally intractable ensemble distribution over strings. In this work, we introduce a unified framework for composing $K$ language models into $f$-ensemble distributions for a wide range of functions $f\colon\mathbb{R}_{\geq 0}^{K}\to\mathbb{R}_{\geq 0}$. To sample from these distributions, we propose a byte-level sequential Monte Carlo (SMC) algorithm that operates in a shared character space, enabling ensembles of models with mismatching vocabularies and consistent sampling in the limit. We evaluate a family of $f$-ensembles across prompt and model combinations for various structured text generation tasks, highlighting the benefits of alternative aggregation strategies over traditional probability averaging, and showing that better posterior approximations can yield better ensemble performance.


翻译:针对众多语言建模任务,实践者拥有丰富的语言模型和提示策略可供选择;然而先前研究表明,建模性能对这两类选择均高度敏感。经典机器学习集成技术提供了一种原则性方法:聚合多个来源的预测以获得优于任一单体的性能。然而,在解码阶段对语言模型应用集成具有挑战性:简单聚合下一词元概率会从局部归一化的、有偏的近似分布中采样,而该近似分布对应的是字符串空间上通常难以处理的集成分布。本文提出一个统一框架,可将$K$个语言模型组合为$f$-集成分布,其中函数$f\colon\mathbb{R}_{\geq 0}^{K}\to\mathbb{R}_{\geq 0}$具有广泛的选择范围。为从这些分布中采样,我们提出一种字节级序贯蒙特卡洛算法,该算法在共享字符空间运行,能够集成具有不匹配词表的模型,并实现极限意义下的一致性采样。我们在多种结构化文本生成任务中,针对不同提示与模型组合评估了一系列$f$-集成方法,结果表明:相较于传统概率平均策略,替代性聚合策略具有显著优势,且更精确的后验近似能够带来更优的集成性能。

0
下载
关闭预览

相关内容

【ETZH博士论文】语言模型编程
专知会员服务
25+阅读 · 2025年6月14日
面向统计学家的大型语言模型概述
专知会员服务
32+阅读 · 2025年3月16日
利用多个大型语言模型:关于LLM集成的调研
专知会员服务
35+阅读 · 2025年2月27日
小型语言模型综述
专知会员服务
54+阅读 · 2024年10月29日
大型语言模型与智能机器人集成的综述
专知会员服务
71+阅读 · 2024年4月22日
大型语言模型:原理、实现与发展
专知会员服务
102+阅读 · 2023年11月28日
【2023新书】机器学习集成方法,354页pdf
专知
40+阅读 · 2023年4月11日
自然语言生成资源列表
专知
17+阅读 · 2020年1月4日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
常用的模型集成方法介绍:bagging、boosting 、stacking
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
NLP通用模型诞生?一个模型搞定十大自然语言常见任务
人工智能头条
10+阅读 · 2018年6月29日
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
500+阅读 · 2023年3月31日
VIP会员
最新内容
(译文)认知战:以士兵为目标,塑造战略
专知会员服务
2+阅读 · 今天3:12
(中文)认知战的本体论基础(2026报告)
专知会员服务
17+阅读 · 今天1:45
美空军条令(2026):外国对内防御
专知会员服务
3+阅读 · 今天1:32
美国与以色列如何在攻击伊朗中使用人工智能
专知会员服务
7+阅读 · 4月16日
《自动化战略情报管控》
专知会员服务
3+阅读 · 4月16日
得失评估:审视对伊朗战争的轨迹(简报)
专知会员服务
3+阅读 · 4月16日
【CMU博士论文】迈向可解释机器学习的理论基础
相关VIP内容
【ETZH博士论文】语言模型编程
专知会员服务
25+阅读 · 2025年6月14日
面向统计学家的大型语言模型概述
专知会员服务
32+阅读 · 2025年3月16日
利用多个大型语言模型:关于LLM集成的调研
专知会员服务
35+阅读 · 2025年2月27日
小型语言模型综述
专知会员服务
54+阅读 · 2024年10月29日
大型语言模型与智能机器人集成的综述
专知会员服务
71+阅读 · 2024年4月22日
大型语言模型:原理、实现与发展
专知会员服务
102+阅读 · 2023年11月28日
相关资讯
【2023新书】机器学习集成方法,354页pdf
专知
40+阅读 · 2023年4月11日
自然语言生成资源列表
专知
17+阅读 · 2020年1月4日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
常用的模型集成方法介绍:bagging、boosting 、stacking
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
NLP通用模型诞生?一个模型搞定十大自然语言常见任务
人工智能头条
10+阅读 · 2018年6月29日
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员