Artificial intelligence (AI) is increasingly deployed in real-time and energy-constrained environments, driving demand for hardware platforms that can deliver high performance and power efficiency. While central processing units (CPUs) and graphics processing units (GPUs) have traditionally served as the primary inference engines, their general-purpose nature often leads to inefficiencies under strict latency or power budgets. Field-Programmable Gate Arrays (FPGAs) offer a promising alternative by enabling custom-tailored parallelism and hardware-level optimizations. However, mapping AI workloads to FPGAs remains challenging due to the complexity of hardware-software co-design and data orchestration. This paper presents AI FPGA Agent, an agent-driven framework that simplifies the integration and acceleration of deep neural network inference on FPGAs. The proposed system employs a runtime software agent that dynamically partitions AI models, schedules compute-intensive layers for hardware offload, and manages data transfers with minimal developer intervention. The hardware component includes a parameterizable accelerator core optimized for high-throughput inference using quantized arithmetic. Experimental results demonstrate that the AI FPGA Agent achieves over 10x latency reduction compared to CPU baselines and 2-3x higher energy efficiency than GPU implementations, all while preserving classification accuracy within 0.2% of full-precision references. These findings underscore the potential of AI-FPGA co-design for scalable, energy-efficient AI deployment.


翻译:人工智能(AI)正日益部署于实时性和能耗受限的环境中,这推动了对能够提供高性能与高能效的硬件平台的需求。虽然中央处理器(CPU)和图形处理器(GPU)传统上作为主要的推理引擎,但其通用性往往在严格的延迟或功耗约束下导致效率低下。现场可编程门阵列(FPGA)通过支持定制化的并行处理和硬件级优化,提供了一种有前景的替代方案。然而,由于硬件-软件协同设计与数据编排的复杂性,将AI工作负载映射至FPGA仍然具有挑战性。本文提出了AI FPGA Agent,这是一个由智能体驱动的框架,旨在简化深度神经网络推理在FPGA上的集成与加速。所提出的系统采用一个运行时软件智能体,该智能体动态划分AI模型,调度计算密集型层进行硬件卸载,并以最少的开发者干预管理数据传输。硬件组件包含一个可参数化的加速器核心,该核心针对使用量化算术的高吞吐量推理进行了优化。实验结果表明,与CPU基线相比,AI FPGA Agent实现了超过10倍的延迟降低,并且比GPU实现提高了2-3倍的能效,同时将分类准确率保持在全精度参考模型的0.2%以内。这些发现凸显了AI-FPGA协同设计在可扩展、高能效AI部署方面的潜力。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
《面向边缘AI应用的高性能高能效架构探索》156页
专知会员服务
34+阅读 · 2025年4月12日
可解释人工智能(XAI):从内在可解释性到大语言模型
专知会员服务
33+阅读 · 2025年1月20日
神经网络加速器架构概述
专知会员服务
37+阅读 · 2022年4月23日
深度神经网络 FPGA 设计进展、实现与展望
专知会员服务
59+阅读 · 2022年3月26日
深度神经网络FPGA设计进展、实现与展望
专知会员服务
36+阅读 · 2022年3月21日
FPGA加速深度学习综述
专知会员服务
72+阅读 · 2021年11月13日
专知会员服务
66+阅读 · 2021年5月2日
重磅!AI框架发展白皮书(2022年),44页pdf
专知
28+阅读 · 2022年2月27日
面向人工智能的计算机体系结构
计算机研究与发展
14+阅读 · 2019年6月6日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
VIP会员
相关VIP内容
《面向边缘AI应用的高性能高能效架构探索》156页
专知会员服务
34+阅读 · 2025年4月12日
可解释人工智能(XAI):从内在可解释性到大语言模型
专知会员服务
33+阅读 · 2025年1月20日
神经网络加速器架构概述
专知会员服务
37+阅读 · 2022年4月23日
深度神经网络 FPGA 设计进展、实现与展望
专知会员服务
59+阅读 · 2022年3月26日
深度神经网络FPGA设计进展、实现与展望
专知会员服务
36+阅读 · 2022年3月21日
FPGA加速深度学习综述
专知会员服务
72+阅读 · 2021年11月13日
专知会员服务
66+阅读 · 2021年5月2日
相关基金
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员