Accelerating Machine Learning (ML) workloads requires efficient methods due to their large optimization space. Autotuning has emerged as an effective approach for systematically evaluating variations of implementations. Traditionally, autotuning requires the workloads to be executed on the target hardware (HW). We present an interface that allows executing autotuning workloads on simulators. This approach offers high scalability when the availability of the target HW is limited, as many simulations can be run in parallel on any accessible HW. Additionally, we evaluate the feasibility of using fast instruction-accurate simulators for autotuning. We train various predictors to forecast the performance of ML workload implementations on the target HW based on simulation statistics. Our results demonstrate that the tuned predictors are highly effective. The best workload implementation in terms of actual run time on the target HW is always within the top 3 % of predictions for the tested x86, ARM, and RISC-V-based architectures. In the best case, this approach outperforms native execution on the target HW for embedded architectures when running as few as three samples on three simulators in parallel.


翻译:加速机器学习(ML)工作负载因其庞大的优化空间而需要高效方法。自动调优已成为系统评估实现变体的有效途径。传统上,自动调优需要在目标硬件(HW)上执行工作负载。我们提出一种接口,允许在模拟器上执行自动调优工作负载。该方法在目标硬件可用性有限时提供高可扩展性,因为大量模拟可在任何可访问的硬件上并行运行。此外,我们评估了使用快速指令级精确模拟器进行自动调优的可行性。我们训练了多种预测器,基于模拟统计数据来预测ML工作负载实现在目标硬件上的性能。我们的结果表明,经调优的预测器非常有效。就目标硬件上的实际运行时间而言,最佳工作负载实现始终位于预测结果的前3%以内(针对测试的x86、ARM和基于RISC-V的架构)。在最佳情况下,当在三个模拟器上并行运行少至三个样本时,该方法在嵌入式架构上的表现优于目标硬件的本地执行。

0
下载
关闭预览

相关内容

【慕尼黑大学博士论文】可解释自动化机器学习,200页pdf
专知会员服务
41+阅读 · 2023年12月17日
博士论文《联邦学习仿真器》221页,米兰理工大学
专知会员服务
31+阅读 · 2023年3月14日
【2023新书】基于R的机器和深度学习超参数调优实用指南
【Google大脑Mangpo】自动调优生产机器学习编译器
专知会员服务
14+阅读 · 2022年7月6日
以BERT为例,如何优化机器学习模型性能?
专知
10+阅读 · 2019年10月3日
概述自动机器学习(AutoML)
人工智能学家
19+阅读 · 2019年8月11日
深度学习中Attention Mechanism详细介绍:原理、分类及应用
深度学习与NLP
10+阅读 · 2019年2月18日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月27日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员