Split Computing enables collaborative inference between edge devices and the cloud by partitioning a deep neural network into an edge-side head and a server-side tail, reducing latency and limiting exposure of raw input data. However, inference performance often degrades in practical deployments due to user-specific data distribution shifts, unreliable communication, and privacy-oriented perturbations, especially in closed environments where model architectures and parameters are inaccessible. To address this challenge, we propose SALT (Split-Adaptive Lightweight Tuning), a lightweight adaptation framework for closed Split Computing systems. SALT introduces a compact client-side adapter that refines intermediate representations produced by a frozen head network, enabling effective model adaptation without modifying the head or tail networks or increasing communication overhead. By modifying only the training conditions, SALT supports multiple adaptation objectives, including user personalization, communication robustness, and privacy-aware inference. Experiments using ResNet-18 on CIFAR-10 and CIFAR-100 show that SALT achieves higher accuracy than conventional retraining and fine-tuning while significantly reducing training cost. On CIFAR-10, SALT improves personalized accuracy from 88.1% to 93.8% while reducing training latency by more than 60%. SALT also maintains over 90% accuracy under 75% packet loss and preserves high accuracy (about 88% at sigma = 1.0) under noise injection. These results demonstrate that SALT provides an efficient and practical adaptation framework for real-world Split Computing systems.


翻译:拆分计算通过将深度神经网络划分为边缘端头部和服务器端尾部,实现边缘设备与云端的协同推理,从而降低延迟并限制原始输入数据的暴露。然而,在实际部署中,由于用户特定的数据分布偏移、不可靠的通信以及面向隐私的扰动,推理性能常常下降,尤其是在模型架构和参数不可访问的封闭环境中。为应对这一挑战,我们提出了SALT(拆分自适应轻量化调优),一种面向封闭式拆分计算系统的轻量化自适应框架。SALT引入了一个紧凑的客户端适配器,用于优化由冻结的头部网络产生的中间表示,从而在不修改头部或尾部网络、也不增加通信开销的情况下实现有效的模型自适应。通过仅修改训练条件,SALT支持多种自适应目标,包括用户个性化、通信鲁棒性和隐私感知推理。在CIFAR-10和CIFAR-100数据集上使用ResNet-18进行的实验表明,SALT相比传统的重新训练和微调方法获得了更高的准确率,同时显著降低了训练成本。在CIFAR-10上,SALT将个性化准确率从88.1%提升至93.8%,同时将训练延迟降低了60%以上。SALT在75%丢包率下仍能保持超过90%的准确率,并在噪声注入下(sigma = 1.0时约88%)保持高准确率。这些结果表明,SALT为现实世界的拆分计算系统提供了一个高效且实用的自适应框架。

0
下载
关闭预览

相关内容

《边缘计算通信安全威胁及计算任务分类》
专知会员服务
35+阅读 · 2023年11月13日
能耗优化的神经网络轻量化方法研究进展
专知会员服务
27+阅读 · 2023年1月29日
专知会员服务
37+阅读 · 2021年7月8日
《“边缘计算+”技术白皮书》,82页pdf
专知
11+阅读 · 2022年8月28日
深度学习时代的目标检测算法
炼数成金订阅号
40+阅读 · 2018年3月19日
最新|深度离散哈希算法,可用于图像检索!
全球人工智能
14+阅读 · 2017年12月15日
边缘计算:万物互联时代新型计算模型
计算机研究与发展
15+阅读 · 2017年5月19日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 3月9日
VIP会员
最新内容
世界动作模型: 具身AI的下一个前沿
专知会员服务
0+阅读 · 今天12:28
全球十大防空反导系统:列表、射程与用途
专知会员服务
10+阅读 · 今天3:53
相关VIP内容
《边缘计算通信安全威胁及计算任务分类》
专知会员服务
35+阅读 · 2023年11月13日
能耗优化的神经网络轻量化方法研究进展
专知会员服务
27+阅读 · 2023年1月29日
专知会员服务
37+阅读 · 2021年7月8日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员