大语言模型(LLMs)的飞速进步改变了机器学习的版图,实现了前所未有的生成能力。然而,将 LLMs 与传统软件系统集成引入了根本性的挑战,特别是在效率、正确性,以及对结构化编程抽象的需求方面——这些抽象需要调和模型的概率性(Probabilistic Nature)与传统软件工程系统及实践的确定性(Deterministic Nature)。基于这一新兴范式,本论文的目标是通过引入创新的程序化抽象和算法,推动我们称之为**语言模型编程(Language Model Programming, LMP)**领域的发展,从而实现更高效、可靠且受控的 LLM 编程。 为此,本论文提出了三项核心贡献: 1. 引入了语言模型查询语言(LMQL):这是一种针对 LMP 的新型编程语言及运行时,能够实现对 LLM 程序化交互的高效提示(Prompting)与约束。

提出了提示词草绘(Prompt Sketching):这是一种全新的以模板为中心的解码方法,支持受控的多部分 LLM 交互,同时确保生成过程更加准确且具有引导性。

引入了 Domino 算法:这是一种针对基于语法的 LLM 文本生成的高效投机算法(Speculative Algorithm),在确保可靠性与控制力的同时(如在 LMQL 和更广泛的 LMP 中所示),解决了高吞吐量推理的需求。

这些工具和算法显著提升了使用 LLM 编程的效率、可靠性和可控性,为构建以 LLM 为核心的更先进、个性化、自主且高效的软件系统铺平了道路。为实现这一目标,本论文不仅依托于先前的编程语言研究和 LLMs 的最新进展,还结合了编译构造、解析器、声明式与命令式编程,以及自然语言处理中的解码算法。 综合而言,这些工具从机器学习和编程语言的双重维度显著提升了 LLMs 的可靠性,从而为“语言模型编程”这一新兴领域做出了贡献。

成为VIP会员查看完整内容
6

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
【MIT博士论文】语言模型的推理时学习算法
专知会员服务
29+阅读 · 2025年12月24日
【CMU博士论文】基于深度学习的高效贝叶斯实验设计
专知会员服务
17+阅读 · 2025年8月19日
【MIT博士论文】数据高效强化学习,176页pdf
最新《图嵌入组合优化》综述论文,40页pdf
【论文笔记】ICLR 2018 Wasserstein自编码器
专知
32+阅读 · 2018年6月29日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【MIT博士论文】语言模型的推理时学习算法
专知会员服务
29+阅读 · 2025年12月24日
【CMU博士论文】基于深度学习的高效贝叶斯实验设计
专知会员服务
17+阅读 · 2025年8月19日
相关资讯
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员