IoT applications are increasingly relying on on-device AI accelerators to ensure high performance, especially in limited connectivity and safety-critical scenarios. However, the limited on-chip memory of these accelerators forces inference runtimes to swap model segments between host and accelerator memory, substantially inflating latency. While collaborative processing by partitioning the model processing between CPU and accelerator resources can reduce accelerator memory pressure and latency, naive partitioning may worsen end-to-end latency by either shifting excessive computation to the CPU or failing to sufficiently curb swapping, a problem that is further amplified in multi-tenant and dynamic environments. To address these issues, we present SwapLess, a system for adaptive, multi-tenant TPU-CPU collaborative inference for memory-constrained Edge TPUs. SwapLess utilizes an analytic queueing model that captures partition-dependent CPU/TPU service times as well as inter- and intra-model swapping overheads across different workload mixes and request rates. Using this model, SwapLess continuously adjusts both the partition point and CPU core allocation online to minimize end-to-end response time with low decision overhead. An implementation on Edge TPU-equipped platforms demonstrates that SwapLess reduces mean latency by up to 63.8% for single-tenant workloads and up to 77.4% for multi-tenant workloads relative to the default Edge TPU compiler.


翻译:物联网应用日益依赖设备端AI加速器来确保高性能,尤其在连接受限和安全关键场景中。然而,这些加速器有限的片上内存迫使推理运行时在主机内存与加速器内存之间交换模型分段,从而显著增加延迟。虽然通过CPU与加速器资源间划分模型处理的协同处理方式能够降低加速器内存压力与延迟,但简单的划分可能因将过多计算转移至CPU或未能充分抑制交换而恶化端到端延迟,该问题在多租户动态环境中会进一步放大。为解决这些问题,我们提出SwapLess——一个面向内存受限边缘TPU的自适应多租户TPU-CPU协同推理系统。SwapLess采用解析排队模型,该模型能捕获划分相关的CPU/TPU服务时间,以及不同工作负载混合与请求速率下的模型间与模型内交换开销。基于此模型,SwapLess以较低决策开销在线持续调整划分点与CPU核心分配,从而最小化端到端响应时间。在配备边缘TPU的平台上的实现表明,相较于默认边缘TPU编译器,SwapLess将单租户工作负载的平均延迟降低达63.8%,多租户工作负载降低达77.4%。

0
下载
关闭预览

相关内容

【NTU博士论文】深度神经网络的参数高效推理与训练
专知会员服务
17+阅读 · 2025年10月1日
《面向边缘AI应用的高性能高能效架构探索》156页
专知会员服务
35+阅读 · 2025年4月12日
《“边缘计算+”技术白皮书》,82页pdf
专知
11+阅读 · 2022年8月28日
数据受限条件下的多模态处理技术综述
专知
22+阅读 · 2022年7月16日
通过集成 XNNPACK 实现推理速度飞跃
TensorFlow
26+阅读 · 2020年7月30日
【边缘智能】边缘计算驱动的深度学习加速技术
产业智能官
20+阅读 · 2019年2月8日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
17+阅读 · 2018年9月20日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
《新兴技术武器化及其对全球风险的影响》
专知会员服务
7+阅读 · 4月29日
《帕兰泰尔平台介绍:信息分析平台》
专知会员服务
18+阅读 · 4月29日
智能体化世界建模:基础、能力、规律及展望
专知会员服务
11+阅读 · 4月28日
相关VIP内容
【NTU博士论文】深度神经网络的参数高效推理与训练
专知会员服务
17+阅读 · 2025年10月1日
《面向边缘AI应用的高性能高能效架构探索》156页
专知会员服务
35+阅读 · 2025年4月12日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员