This study proposes a multi-agent language framework that enables continual strategy evolution without fine-tuning the language model's parameters. The core idea is to liberate the latent vectors of abstract concepts from traditional static semantic representations, allowing them to be continuously updated through environmental interaction and reinforcement feedback. We construct a dual-loop architecture: the behavior loop adjusts action preferences based on environmental rewards, while the language loop updates the external latent vectors by reflecting on the semantic embeddings of generated text. Together, these mechanisms allow agents to develop stable and disentangled strategic styles over long-horizon multi-round interactions. Experiments show that agents' latent spaces exhibit clear convergence trajectories under reflection-driven updates, along with structured shifts at critical moments. Moreover, the system demonstrates an emergent ability to implicitly infer and continually adapt to emotional agents, even without shared rewards. These results indicate that, without modifying model parameters, an external latent space can provide language agents with a low-cost, scalable, and interpretable form of abstract strategic representation.


翻译:本研究提出一种多智能体语言框架,能够在无需微调语言模型参数的情况下实现策略的持续演化。其核心思想是将抽象概念的潜在向量从传统的静态语义表征中解放出来,使其能够通过环境交互与强化反馈不断更新。我们构建了双循环架构:行为循环根据环境奖励调整行动偏好,而语言循环则通过反思生成文本的语义嵌入来更新外部潜在向量。这些机制共同作用,使得智能体能够在长期多轮交互中形成稳定且解耦的策略风格。实验表明,在反思驱动的更新机制下,智能体的潜在空间展现出清晰的收敛轨迹,并在关键时刻呈现结构化偏移。此外,该系统展现出一种涌现能力,即使在没有共享奖励的情况下,也能隐式推断并持续适应情感化智能体。这些结果表明,在不修改模型参数的前提下,外部潜在空间能够为语言智能体提供一种低成本、可扩展且可解释的抽象策略表征形式。

0
下载
关闭预览

相关内容

【AAAI2024】使用大型语言模型的生成式多模态知识检索
专知会员服务
58+阅读 · 2024年1月19日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
22+阅读 · 2021年4月11日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员