Large language model agents suffer from fundamental architectural problems: entangled reasoning and execution, memory volatility, and uncontrolled action sequences. We introduce Structured Cognitive Loop (SCL), a modular architecture that explicitly separates agent cognition into five phases: Retrieval, Cognition, Control, Action, and Memory (R-CCAM). Soft Symbolic Control constitutes a dedicated governance layer within SCL, applying symbolic constraints to probabilistic inference while preserving the flexibility of neural reasoning and restoring the explainability and controllability of classical symbolic systems. Through empirical validation on multi-step conditional reasoning tasks, we demonstrate that SCL achieves zero policy violations, eliminates redundant tool calls, and maintains complete decision traceability. These results address critical gaps in existing frameworks such as ReAct, AutoGPT, and memory-augmented approaches. Our contributions are threefold: (1) we situate SCL within the taxonomy of hybrid intelligence, differentiating it from prompt-centric and memory-only approaches; (2) we formally define Soft Symbolic Control and contrast it with neuro-symbolic AI; and (3) we derive three design principles for trustworthy agents: modular decomposition, adaptive symbolic governance, and transparent state management. We provide a complete open-source implementation demonstrating the R-CCAM loop architecture, alongside a live GPT-4o-powered travel planning agent. By connecting expert system principles with modern LLM capabilities, this work offers a practical and theoretically grounded path toward reliable, explainable, and governable AI agents.


翻译:大语言模型智能体存在根本性的架构问题:推理与执行纠缠、记忆易失性以及动作序列不可控。本文提出结构化认知循环(SCL),这是一种模块化架构,将智能体认知明确划分为五个阶段:检索、认知、控制、动作与记忆(R-CCAM)。软符号控制作为SCL中的专用治理层,在保持神经推理灵活性的同时对概率推断施加符号约束,从而恢复经典符号系统的可解释性与可控性。通过在多步条件推理任务上的实证验证,我们证明SCL能够实现零策略违规、消除冗余工具调用并保持完整的决策可追溯性。这些结果解决了现有框架(如ReAct、AutoGPT及记忆增强方法)的关键缺陷。我们的贡献包括三个方面:(1)将SCL置于混合智能的分类体系中,区分其与提示中心化及纯记忆方法;(2)形式化定义软符号控制,并与神经符号AI进行对比;(3)推导出可信智能体的三项设计原则:模块化分解、自适应符号治理与透明状态管理。我们提供了完整的开源实现,展示了R-CCAM循环架构,并附有一个基于GPT-4o的实时旅行规划智能体。通过将专家系统原理与现代大语言模型能力相结合,本工作为构建可靠、可解释且可治理的人工智能智能体提供了一条兼具实践性与理论依据的路径。

0
下载
关闭预览

相关内容

基于大语言模型智能体的社会认知模拟
专知会员服务
13+阅读 · 2月22日
大语言模型的智能体化推理
专知会员服务
32+阅读 · 1月21日
大语言模型智能体强化学习:全景综述
专知会员服务
43+阅读 · 2025年12月18日
从感知到推理:深度思考赋能多模态大语言模型
专知会员服务
24+阅读 · 2025年11月19日
《大语言模型智能体:方法、应用与挑战综述》
专知会员服务
58+阅读 · 2025年3月28日
多循环嵌套的大语言模型多智能体指挥控制过程
专知会员服务
42+阅读 · 2025年1月19日
【普林斯顿】基于大型语言模型的语言智能体认知架构
专知会员服务
77+阅读 · 2023年9月6日
「知识增强预训练语言模型」最新研究综述
专知
18+阅读 · 2022年11月18日
「基于通信的多智能体强化学习」 进展综述
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
自然语言处理(NLP)知识结构总结
AI100
51+阅读 · 2018年8月17日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
VIP会员
相关VIP内容
基于大语言模型智能体的社会认知模拟
专知会员服务
13+阅读 · 2月22日
大语言模型的智能体化推理
专知会员服务
32+阅读 · 1月21日
大语言模型智能体强化学习:全景综述
专知会员服务
43+阅读 · 2025年12月18日
从感知到推理:深度思考赋能多模态大语言模型
专知会员服务
24+阅读 · 2025年11月19日
《大语言模型智能体:方法、应用与挑战综述》
专知会员服务
58+阅读 · 2025年3月28日
多循环嵌套的大语言模型多智能体指挥控制过程
专知会员服务
42+阅读 · 2025年1月19日
【普林斯顿】基于大型语言模型的语言智能体认知架构
专知会员服务
77+阅读 · 2023年9月6日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员