Agentic workflows that use autonomous AI Agents powered by Large Language Models (LLMs) and Model Context Protocol (MCP) servers is rapidly rising. This introduces challenges in scalable cloud deployment and state management. Traditional hosting on Virtual Machines (VMs) is resource-intensive and lacks elasticity. Functions-as-a-Service (FaaS) platforms offer modularity, autoscaling and cost efficiency but are inherently stateless. In this paper, we present the FAME, a FaaS-based architecture for orchestrating MCP-enabled agentic workflows. FAME decomposes agentic patterns such as ReAct into composable agents: Planner, Actor and Evaluator, that are each a FaaS function built using LangGraph and are orchestrated as a FaaS workflow. This enables modular composition as AWS Step Functions and avoids function timeouts seen for monolithic agentic workflows. To address context persistence across user requests in a conversation, FAME automates agent memory persistence and injection using DynamoDB. It also optimizes MCP server deployment through AWS Lambda wrappers, caches tool outputs in S3 and proposes function fusion strategies. We evaluate FAME on two representative applications, on research paper summarization and log analytics, under diverse memory and caching configurations. Results show up to 13x latency reduction, 88% fewer input tokens and 66% in cost savings, along with improved workflow completion rates. This demonstrates the viability of serverless platforms for hosting complex, multi-agent AI workflows at scale.


翻译:利用大型语言模型(LLM)和模型上下文协议(MCP)服务器驱动的自主AI智能体所构建的智能体工作流正迅速兴起。这给可扩展的云部署和状态管理带来了挑战。传统的虚拟机(VM)托管方式资源消耗大且缺乏弹性。函数即服务(FaaS)平台提供了模块化、自动扩展和成本效益,但其本质上是无状态的。本文提出了FAME,一种用于编排基于MCP的智能体工作流的FaaS架构。FAME将诸如ReAct等智能体模式分解为可组合的智能体:规划器、执行器和评估器,每个智能体都是一个使用LangGraph构建的FaaS函数,并作为FaaS工作流进行编排。这使得模块化组合(如AWS Step Functions)成为可能,并避免了单体智能体工作流中出现的函数超时问题。为了解决对话中跨用户请求的上下文持久化问题,FAME利用DynamoDB自动实现智能体记忆的持久化存储与注入。它还通过AWS Lambda包装器优化MCP服务器部署,在S3中缓存工具输出,并提出了函数融合策略。我们在两个代表性应用(研究论文摘要和日志分析)上,在不同的内存和缓存配置下评估了FAME。结果显示,延迟最多降低13倍,输入令牌数减少88%,成本节约66%,同时工作流完成率得到提升。这证明了无服务器平台在规模化托管复杂多智能体AI工作流方面的可行性。

0
下载
关闭预览

相关内容

智能体,顾名思义,就是具有智能的实体,英文名是Agent。
迈向智能体系统规模化的科学
专知会员服务
20+阅读 · 2025年12月12日
【新书】AI智能体与应用:基于 LangChain、LangGraph 与 MCP
专知会员服务
62+阅读 · 2025年9月12日
【EPFL博士论文】大型语言模型时代的协作式智能体
专知会员服务
32+阅读 · 2025年5月16日
基于大语言模型的智能体优化研究综述
专知会员服务
59+阅读 · 2025年3月25日
基础模型驱动的智能体服务部署:综述
专知会员服务
53+阅读 · 2024年12月19日
基于大型语言模型的软件工程智能体综述
专知会员服务
58+阅读 · 2024年9月6日
【数据中台】数据中台技术架构方案
产业智能官
15+阅读 · 2020年5月26日
基于车路协同的群体智能协同
智能交通技术
10+阅读 · 2019年1月23日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关VIP内容
迈向智能体系统规模化的科学
专知会员服务
20+阅读 · 2025年12月12日
【新书】AI智能体与应用:基于 LangChain、LangGraph 与 MCP
专知会员服务
62+阅读 · 2025年9月12日
【EPFL博士论文】大型语言模型时代的协作式智能体
专知会员服务
32+阅读 · 2025年5月16日
基于大语言模型的智能体优化研究综述
专知会员服务
59+阅读 · 2025年3月25日
基础模型驱动的智能体服务部署:综述
专知会员服务
53+阅读 · 2024年12月19日
基于大型语言模型的软件工程智能体综述
专知会员服务
58+阅读 · 2024年9月6日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员