Large language model (LLM) agents increasingly rely on reusable skills: capability packages that combine instructions, control flow, constraints, and tool calls. In current agent systems, however, skills are still represented by text-heavy artifacts, mainly SKILL{.}md-style documents whose machine-usable evidence remains embedded largely in natural-language descriptions. As a result, skill-centered agent systems face a representation problem: both managing skill collections and using skills during agent execution require reasoning over invocation interfaces, execution structure, and concrete side effects, but these signals are often entangled in a single textual surface. An explicit representation of skill knowledge may therefore help make these artifacts easier for machines to acquire and leverage. Drawing on Memory Organization Packets, Script Theory, and Conceptual Dependency from Schank and Abelson's classical work on cognitive linguistic representation, we introduce what is, to our knowledge, the first structured representation for agent skill artifacts that disentangles skill-level scheduling signals, scene-level execution structure, and logic-level action/resource-use evidence: the Scheduling-Structural-Logical (SSL) representation. We instantiate SSL with an LLM-based normalizer and evaluate SSL-derived representations in two tasks, Skill Discovery and Risk Assessment. The experiment shows that SSL significantly outperforms the text-only baselines: in Skill Discovery, MRR@50 improves from 0.649 to 0.729; in Risk Assessment, macro F1 improves from 0.409 to 0.509. These findings suggest that an explicit, source-grounded structure can make agent skills easier to search and review, positioning SSL as a practical step toward more inspectable, reusable, and operationally actionable skill representations, rather than a finished standard or end-to-end skill-management mechanism.


翻译:大语言模型(LLM)智能体日益依赖可复用的技能:一种将指令、控制流、约束和工具调用融合的能力包。然而在当前智能体系统中,技能仍以文本为主的制品形式呈现,主要是SKILL{.}md风格文档,其机器可用的证据仍主要嵌入自然语言描述中。这导致以技能为中心的智能体系统面临表征问题:管理技能集合与在执行过程中使用技能,都需要对调用接口、执行结构和具体副作用进行推理,但这些信号往往混杂在单一文本表面。因此,明确的技能知识表征或许能帮助这些制品更易于机器获取和利用。借鉴Schank与Abelson在认知语言学表征经典研究中提出的记忆组织包、脚本理论和概念依赖理论,我们提出——据我们所知——首个针对智能体技能制品的结构化表征,该表征将技能级调度信号、场景级执行结构与逻辑级动作/资源使用证据解耦:即调度-结构-逻辑(SSL)表征。我们通过基于LLM的规范化器实例化SSL,并在技能发现和风险评估两项任务中评估基于SSL的表征。实验表明,SSL显著优于纯文本基线:在技能发现中,MRR@50从0.649提升至0.729;在风险评估中,宏F1从0.409提升至0.509。这些发现表明,明确且基于源头的结构可使智能体技能更易于搜索和审查,使SSL成为迈向更具可检视性、可复用性和可操作性的技能表征的实用步骤,而非一项终局标准或端到端技能管理机制。

0
下载
关闭预览

相关内容

智能体技能综合综述:分类、技术与应用
专知会员服务
22+阅读 · 5月11日
AI智能体编程:技术、挑战与机遇综述
专知会员服务
46+阅读 · 2025年8月18日
OpenAI 32页《智能体》指南,如何构建首个智能体系统
专知会员服务
50+阅读 · 2025年4月18日
《大语言模型智能体:方法、应用与挑战综述》
专知会员服务
61+阅读 · 2025年3月28日
基于大型语言模型的软件工程智能体综述
专知会员服务
59+阅读 · 2024年9月6日
面向人工智能的计算机体系结构
计算机研究与发展
14+阅读 · 2019年6月6日
强化学习与文本生成
微信AI
41+阅读 · 2019年4月4日
本体:一文读懂领域本体构建
AINLP
40+阅读 · 2019年2月27日
深度学习文本分类方法综述(代码)
中国人工智能学会
28+阅读 · 2018年6月16日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
0+阅读 · 3月9日
VIP会员
最新内容
世界动作模型: 具身AI的下一个前沿
专知会员服务
0+阅读 · 今天12:28
全球十大防空反导系统:列表、射程与用途
专知会员服务
10+阅读 · 今天3:53
相关VIP内容
相关基金
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员