Physical AI at the edge -- enabling autonomous systems to understand and predict real-world dynamics in real time -- requires hardware-efficient learning and inference. Model recovery (MR), which identifies governing equations from sensor data, is a key primitive for safe and explainable monitoring in mission-critical autonomous systems operating under strict latency, compute, and power constraints. However, state-of-the-art MR methods (e.g., EMILY and PINN+SR) rely on Neural ODE formulations that require iterative solvers and are difficult to accelerate efficiently on edge hardware. We present \textbf{MERINDA} (Model Recovery in Reconfigurable Dynamic Architecture), an FPGA-accelerated MR framework designed to make physical AI practical on resource-constrained devices. MERINDA replaces expensive Neural ODE components with a hardware-friendly formulation that combines (i) GRU-based discretized dynamics, (ii) dense inverse-ODE layers, (iii) sparsity-driven dropout, and (iv) lightweight ODE solvers. The resulting computation is structured for streaming parallelism, enabling critical kernels to be fully parallelized on the FPGA. Across four benchmark nonlinear dynamical systems, MERINDA delivers substantial gains over GPU implementations: \textbf{114$\times$ lower energy} (434~J vs.\ 49{,}375~J), \textbf{28$\times$ smaller memory footprint} (214~MB vs.\ 6{,}118~MB), and \textbf{1.68$\times$ faster training}, while matching state-of-the-art model-recovery accuracy. These results demonstrate that MERINDA can bring accurate, explainable MR to the edge for real-time monitoring of autonomous systems.


翻译:边缘物理人工智能——使自主系统能够实时理解并预测真实世界动力学——需要硬件高效的学习与推理。模型恢复(MR)通过从传感器数据中识别控制方程,是在严格延迟、计算和功耗约束下运行的关键任务自主系统中实现安全且可解释监控的核心基础。然而,最先进的MR方法(如EMILY和PINN+SR)依赖于需要迭代求解器的神经常微分方程(Neural ODE)公式,难以在边缘硬件上高效加速。本文提出\textbf{MERINDA}(可重构动态架构中的模型恢复),一种专为在资源受限设备上实现实用物理人工智能而设计的FPGA加速MR框架。MERINDA采用硬件友好的公式替代昂贵的Neural ODE组件,该公式融合了:(i)基于GRU的离散化动力学,(ii)稠密逆ODE层,(iii)稀疏性驱动的丢弃机制,以及(iv)轻量级ODE求解器。所得计算结构专为流式并行设计,使关键计算核心能在FPGA上完全并行化。在四个基准非线性动力学系统上的实验表明,MERINDA相较于GPU实现取得显著优势:\textbf{能耗降低114倍}(434~J vs.\ 49{,}375~J),\textbf{内存占用缩小28倍}(214~MB vs.\ 6{,}118~MB),且\textbf{训练速度提升1.68倍},同时保持与最先进模型恢复方法相当的精度。这些结果表明MERINDA能够为自主系统的实时监控提供精确、可解释的边缘模型恢复能力。

0
下载
关闭预览

相关内容

物理AI
专知会员服务
17+阅读 · 2025年12月14日
基于脉冲神经网络的边缘智能
专知会员服务
20+阅读 · 2025年7月23日
边缘人工智能:分类法、系统综述及未来方向
专知会员服务
65+阅读 · 2024年7月8日
边缘AI行业深度:边缘AI硬件,引领硬件创新时代
专知会员服务
51+阅读 · 2024年4月18日
边缘智能研究进展
专知会员服务
80+阅读 · 2023年11月6日
【边缘智能综述论文】A Survey on Edge Intelligence
专知会员服务
123+阅读 · 2020年3月30日
边缘智能发展与演进白皮书
物联网智库
13+阅读 · 2019年6月17日
【边缘智能】边缘计算驱动的深度学习加速技术
产业智能官
20+阅读 · 2019年2月8日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
31+阅读 · 2018年10月31日
边缘计算应用:传感数据异常实时检测算法
计算机研究与发展
11+阅读 · 2018年4月10日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
边缘计算:万物互联时代新型计算模型
计算机研究与发展
15+阅读 · 2017年5月19日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
VIP会员
相关资讯
边缘智能发展与演进白皮书
物联网智库
13+阅读 · 2019年6月17日
【边缘智能】边缘计算驱动的深度学习加速技术
产业智能官
20+阅读 · 2019年2月8日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
31+阅读 · 2018年10月31日
边缘计算应用:传感数据异常实时检测算法
计算机研究与发展
11+阅读 · 2018年4月10日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
边缘计算:万物互联时代新型计算模型
计算机研究与发展
15+阅读 · 2017年5月19日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员