Explaining reinforcement learning agents is challenging because policies emerge from complex reward structures and neural representations that are difficult for humans to interpret. Existing approaches often rely on curated demonstrations that expose local behaviors but provide limited insight into an agent's global strategy, leaving users to infer intent from raw observations. We propose SySLLM (Synthesized Summary using Large Language Models), a framework that reframes policy interpretation as a language-generation problem. Instead of visual demonstrations, SySLLM converts spatiotemporal trajectories into structured text and prompts an LLM to generate coherent summaries describing the agent's goals, exploration style, and decision patterns. SySLLM scales to long-horizon, semantically rich environments without task-specific fine-tuning, leveraging LLM world knowledge and compositional reasoning to capture latent behavioral structure across policies. Expert evaluations show strong alignment with human analyses, and a large-scale user study found that 75.5% of participants preferred SySLLM summaries over state-of-the-art demonstration-based explanations. Together, these results position abstractive textual summarization as a paradigm for interpreting complex RL behavior.


翻译:解释强化学习智能体具有挑战性,因为策略源于复杂的奖励结构和难以被人理解的神经表征。现有方法通常依赖于精心设计的演示,这些演示虽然能揭示局部行为,但对智能体全局策略的洞察有限,使得用户不得不从原始观察中推断其意图。我们提出了SySLLM(基于大语言模型的合成摘要),该框架将策略解释重新定义为语言生成问题。SySLLM并非依赖视觉演示,而是将时空轨迹转换为结构化文本,并提示大语言模型生成连贯的摘要,描述智能体的目标、探索风格和决策模式。SySLLM无需针对特定任务进行微调,即可扩展到长时程、语义丰富的环境中,它利用大语言模型的世界知识和组合推理能力,捕捉不同策略间的潜在行为结构。专家评估表明,该方法与人类分析高度一致;一项大规模用户研究发现,75.5%的参与者更倾向于选择SySLLM生成的摘要,而非当前最先进的基于演示的解释方法。这些结果共同表明,抽象文本摘要生成是解释复杂强化学习行为的一种有效范式。

0
下载
关闭预览

相关内容

面向视觉的强化学习综述
专知会员服务
21+阅读 · 2025年8月12日
深度强化学习中的奖励模型:综述
专知会员服务
29+阅读 · 2025年6月20日
【NTU博士论文】基于协作式多智能体强化学习的决策制定
《基于深度强化学习的战场策略》
专知会员服务
37+阅读 · 2025年1月13日
【布朗大学David Abel博士论文】强化学习抽象理论,297页pdf
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
【MIT博士论文】数据高效强化学习,176页pdf
强化学习《奖励函数设计: Reward Shaping》详细解读
深度强化学习实验室
18+阅读 · 2020年9月1日
探索(Exploration)还是利用(Exploitation)?强化学习如何tradeoff?
深度强化学习实验室
13+阅读 · 2020年8月23日
【论文笔记】基于强化学习的句子摘要排序
一文了解强化学习
AI100
15+阅读 · 2018年8月20日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
VIP会员
相关VIP内容
面向视觉的强化学习综述
专知会员服务
21+阅读 · 2025年8月12日
深度强化学习中的奖励模型:综述
专知会员服务
29+阅读 · 2025年6月20日
【NTU博士论文】基于协作式多智能体强化学习的决策制定
《基于深度强化学习的战场策略》
专知会员服务
37+阅读 · 2025年1月13日
【布朗大学David Abel博士论文】强化学习抽象理论,297页pdf
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员