Prompt agents have recently emerged as a promising paradigm for automated prompt optimization, framing refinement as a sequential decision-making problem over a structured prompt space. While this formulation enables the use of advanced planning algorithms, these methods typically assume access to supervised reward signals, which are often unavailable in practical scenarios. In this work, we propose UPA, an Unsupervised Prompt Agent that realizes structured search and selection without relying on supervised feedback. Specifically, during search, UPA iteratively constructs an evolving tree structure to navigate the prompt space, guided by fine-grained and order-invariant pairwise comparisons from Large Language Models (LLMs). Crucially, as these local comparisons do not inherently yield a consistent global scale, we decouple systematic prompt exploration from final selection, introducing a two-stage framework grounded in the Bradley-Terry-Luce (BTL) model. This framework first performs path-wise Bayesian aggregation of local comparisons to filter candidates under uncertainty, followed by global tournament-style comparisons to infer latent prompt quality and identify the optimal prompt. Experiments across multiple tasks demonstrate that UPA consistently outperforms existing prompt optimization methods, showing that agent-style optimization remains highly effective even in fully unsupervised settings.


翻译:提示代理作为一种自动提示优化的新兴范式,将提示优化问题建模为结构化提示空间上的序列决策过程。尽管该框架能够利用先进的规划算法,现有方法通常依赖于监督奖励信号,而这在实际场景中往往难以获取。本文提出UPA,一种无需监督反馈即可实现结构化搜索与选择的无监督提示代理。具体而言,在搜索阶段,UPA基于大语言模型提供的细粒度且顺序无关的成对比较,通过迭代构建演化树结构来探索提示空间。由于此类局部比较本身不具备一致的全局尺度,我们基于Bradley-Terry-Luce模型提出两阶段框架,将系统性提示探索与最终选择解耦:第一阶段通过路径级贝叶斯聚合在不确定性下筛选候选提示,第二阶段通过全局锦标赛式比较推断潜在提示质量并确定最优提示。在多任务实验中的结果表明,UPA持续优于现有提示优化方法,证明即使在完全无监督场景下,代理式优化框架仍能保持高效性能。

0
下载
关闭预览

相关内容

自动化提示工程综述:一种优化视角
专知会员服务
28+阅读 · 2025年2月18日
【CVPR2024】PromptKD: 无监督提示蒸馏用于视觉-语言模型
专知会员服务
21+阅读 · 2024年3月8日
推荐系统(一):推荐系统基础
菜鸟的机器学习
25+阅读 · 2019年9月2日
推荐系统
炼数成金订阅号
28+阅读 · 2019年1月17日
【干货】Python无监督学习的4大聚类算法
新智元
14+阅读 · 2018年5月26日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月14日
Arxiv
0+阅读 · 1月12日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员