Speculative Decoding has emerged as a popular technique for accelerating inference in Large Language Models. However, most existing approaches yield only modest improvements in production serving systems. Methods that achieve substantial speedups typically rely on an additional trained draft model or auxiliary model components, increasing deployment and maintenance complexity. This added complexity reduces flexibility, particularly when serving workloads shift to tasks, domains, or languages that are not well represented in the draft model's training data. We introduce Simply-Scalable Speculative Decoding (SSSD), a training-free method that combines lightweight n-gram matching with hardware-aware speculation. Relative to standard autoregressive decoding, SSSD reduces latency by up to 2.9x. It achieves performance on par with leading training-based approaches across a broad range of benchmarks, while requiring substantially lower adoption effort--no data preparation, training or tuning are needed--and exhibiting superior robustness under language and domain shift, as well as in long-context settings.


翻译:推测解码已成为加速大型语言模型推理的一种流行技术。然而,现有方法大多在生成式服务系统中仅能带来有限的性能提升。那些能实现显著加速的方法通常依赖于额外训练过的草稿模型或辅助模型组件,这增加了部署和维护的复杂性。这种额外的复杂性降低了灵活性,尤其是在服务负载转向草稿模型训练数据中未充分代表的任务、领域或语言时。我们提出了简单可扩展的推测解码(SSSD),这是一种无需训练的方法,它将轻量级的 n-gram 匹配与硬件感知的推测相结合。相对于标准的自回归解码,SSSD 将延迟降低了高达 2.9 倍。它在广泛的基准测试中实现了与领先的基于训练的方法相当的性能,同时显著降低了采用成本——无需数据准备、训练或调优——并且在语言和领域迁移以及长上下文设置中表现出更优的鲁棒性。

0
下载
关闭预览

相关内容

【CMU博士论文】使用结构化推理增强语言模型,320页pdf
专知会员服务
34+阅读 · 2024年6月29日
「可解释知识图谱推理」最新方法综述
专知会员服务
89+阅读 · 2022年12月17日
机器学习的可解释性
专知会员服务
69+阅读 · 2020年12月18日
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
35+阅读 · 2020年9月3日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
机器学习的可解释性:因果推理和稳定学习
DataFunTalk
13+阅读 · 2020年3月3日
深度学习在推荐系统中的应用综述(最全)
七月在线实验室
17+阅读 · 2018年5月5日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员