Efficiently harnessing GPU compute is critical to improving user experience and reducing operational costs in large language model (LLM) services. However, current inference engine schedulers overlook the attention backend's sensitivity to request-length heterogeneity within a batch. As state-of-the-art models now support context windows exceeding 128K tokens, this once-tolerable inefficiency has escalated into a primary system bottleneck, causing severe performance degradation through GPU underutilization and increased latency. We present CascadeInfer, a runtime system that dynamically reschedules requests across multiple instances serving the same LLM to mitigate per-instance length heterogeneity. CascadeInfer partitions these instances into length-specialized groups, each handling requests within a designated length range, naturally forming a pipeline as requests flow through them. CascadeInfer devises a dynamic programming algorithm to efficiently find the stage partition with the best QoE, employs runtime range refinement together with decentralized load (re)balance both across and within groups, achieving a balanced and efficient multi-instance service. Our evaluation shows that, under the same configuration, CascadeInfer reduces end-to-end latency by up to 67% and tail latency by up to 69%, while improving overall system throughput by up to 2.89 times compared to the state-of-the-art multi-instance scheduling systems.


翻译:高效利用GPU计算能力对于提升大型语言模型(LLM)服务的用户体验和降低运营成本至关重要。然而,当前推理引擎调度器忽视了注意力后端对批次内请求长度异质性的敏感性。随着最先进模型现已支持超过128K令牌的上下文窗口,这种曾经可容忍的低效问题已升级为系统主要瓶颈,导致GPU利用率不足和延迟增加,从而造成严重的性能下降。我们提出了CascadeInfer,这是一个运行时系统,通过跨多个运行同一LLM的实例动态重新调度请求,以缓解每个实例内的长度异质性。CascadeInfer将这些实例划分为长度专用组,每组处理指定长度范围内的请求,随着请求流经这些组,自然形成流水线。CascadeInfer设计了一种动态规划算法,以高效找到具有最佳体验质量(QoE)的阶段划分方案,并结合运行时范围细化以及跨组和组内的去中心化负载(再)平衡,实现了均衡高效的多实例服务。我们的评估表明,在相同配置下,与最先进的多实例调度系统相比,CascadeInfer将端到端延迟降低了高达67%,尾部延迟降低了高达69%,同时将整体系统吞吐量提升了高达2.89倍。

0
下载
关闭预览

相关内容

谷歌EfficientNet缩放模型,PyTorch实现登热榜
机器学习算法与Python学习
11+阅读 · 2019年6月4日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员