We address a not-widely-recognized subset of exploratory search, where a user sets out on a typically long "search quest" for the perfect wedding dress, overlooked research topic, killer company idea, etc. The first few outputs of current large language models (LLMs) may be helpful but only as a start, since the quest requires learning the search space and evaluating many diverse and creative alternatives along the way. Although LLMs encode an impressive fraction of the world's knowledge, common decoding methods are narrowly optimized for prompts with correct answers and thus return mostly homogeneous and conventional results. Other approaches, including those designed to increase diversity across a small set of answers, start to repeat themselves long before search quest users learn enough to make final choices, or offer a uniform type of "creativity" to every user asking similar questions. We develop a novel, easy-to-implement decoding scheme that induces sustained creativity and diversity in LLMs, producing as many conceptually unique results as desired, even without access to the inner workings of an LLM's vector space. The algorithm unlocks an LLM's vast knowledge, both orthodox and heterodox, well beyond modal decoding paths. With this approach, search quest users can more quickly explore the search space and find satisfying answers.


翻译:我们针对一种尚未被广泛认知的探索性搜索子类问题展开研究:用户通常需要进行漫长的“搜索探索”(如寻找完美婚纱、未被充分研究的研究课题、颠覆性的公司创意等)。当前大型语言模型(LLMs)的前几个输出结果虽有一定帮助,但仅能作为起点,因为此类探索需要用户在学习搜索空间的同时,沿途评估大量多样且富有创造性的替代方案。尽管LLMs编码了人类知识库中相当可观的内容,但常见的解码方法主要针对具有标准答案的提示进行优化,导致输出结果趋于同质化和常规化。其他方法(包括旨在提升小规模备选答案多样性的方案)在搜索探索用户尚未充分获取决策所需信息时便出现重复,或对不同用户提出的相似问题提供千篇一律的“创意”。我们开发了一种新颖且易于实现的解码方案,能够激发LLMs的持续创造力与多样性,可生成任意数量的概念性独特结果,即使无法访问LLM向量空间的内部机制也依然有效。该算法突破了模态解码路径的局限,充分释放LLMs蕴含的正统与非正统知识。通过此方法,搜索探索用户可更快速地探索搜索空间并找到满意的答案。

0
下载
关闭预览

相关内容

互联网
大语言模型持续学习:方法、挑战与机遇
专知会员服务
20+阅读 · 3月16日
赋能大型语言模型多领域资源挑战
专知会员服务
10+阅读 · 2025年6月10日
个性化大型语言模型综述:进展与未来方向
专知会员服务
43+阅读 · 2025年2月18日
大规模语言模型的个性化:综述
专知会员服务
43+阅读 · 2024年11月4日
《大型语言模型持续学习》综述
专知会员服务
93+阅读 · 2024年4月26日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
NLP通用模型诞生?一个模型搞定十大自然语言常见任务
人工智能头条
10+阅读 · 2018年6月29日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Arxiv
0+阅读 · 3月15日
Arxiv
21+阅读 · 2023年7月12日
Arxiv
25+阅读 · 2023年6月23日
VIP会员
最新内容
美国军方使用的10种反无人机武器(2026年更新)
专知会员服务
1+阅读 · 51分钟前
认知战与交战性质的改变:神经战略视角
专知会员服务
5+阅读 · 5月8日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员