Repetitive motion tasks are common in robotics, but performance can degrade over time due to environmental changes and robot wear and tear. Iterative learning control (ILC) improves performance by using information from previous iterations to compensate for expected errors in future iterations. This work incorporates the use of Quasi-Periodic Gaussian Processes (QPGPs) into a predictive ILC framework to model and forecast disturbances and drift across iterations. Using a recent structural equation formulation of QPGPs, the proposed approach enables efficient inference with complexity $\mathcal{O}(p^3)$ instead of $\mathcal{O}(i^2p^3)$, where $p$ denotes the number of points within an iteration and $i$ represents the total number of iterations, specially for larger $i$. This formulation also enables parameter estimation without loss of information, making continual GP learning computationally feasible within the control loop. By predicting next-iteration error profiles rather than relying only on past errors, the controller achieves faster convergence and maintains this under time-varying disturbances. We benchmark the method against both standard ILC and conventional Gaussian Process (GP)-based predictive ILC on three tasks, autonomous vehicle trajectory tracking, a three-link robotic manipulator, and a real-world Stretch robot experiment. Across all cases, the proposed approach converges faster and remains robust under injected and natural disturbances while reducing computational cost. This highlights its practicality across a range of repetitive dynamical systems.


翻译:重复运动任务在机器人学中十分常见,但受环境变化及机器人磨损等因素影响,其性能会随时间逐渐下降。迭代学习控制(ILC)通过利用先前迭代中的信息来补偿未来迭代中的预期误差,从而提升系统性能。本研究将准周期高斯过程(QPGP)纳入预测性ILC框架,用以建模并预测跨迭代的扰动与漂移。通过采用近期提出的QPGP结构方程形式,所提方法能以$\mathcal{O}(p^3)$而非$\mathcal{O}(i^2p^3)$的复杂度实现高效推断,其中$p$表示单次迭代内的点数,$i$代表总迭代次数,该优势在$i$较大时尤为显著。此形式化表述还能实现无信息损失下的参数估计,使得在控制回路内进行持续的高斯过程学习在计算上成为可行。通过预测下一迭代的误差分布而非仅依赖历史误差,控制器实现了更快的收敛速度,并在时变扰动下保持该性能。我们在三个任务上对本方法与标准ILC及传统基于高斯过程(GP)的预测ILC进行了对比测试:自动驾驶车辆轨迹跟踪、三连杆机械臂仿真以及真实Stretch机器人实验。在所有案例中,所提方法均展现出更快的收敛速度,在注入扰动与自然扰动下保持鲁棒性,同时降低了计算成本。这凸显了该方法在多种重复动力系统中的实用性。

0
下载
关闭预览

相关内容

高斯过程(Gaussian Process, GP)是概率论和数理统计中随机过程(stochastic process)的一种,是一系列服从正态分布的随机变量(random variable)在一指数集(index set)内的组合。 高斯过程中任意随机变量的线性组合都服从正态分布,每个有限维分布都是联合正态分布,且其本身在连续指数集上的概率密度函数即是所有随机变量的高斯测度,因此被视为联合正态分布的无限维广义延伸。高斯过程由其数学期望和协方差函数完全决定,并继承了正态分布的诸多性质
基于神经网络的机器人学习与控制:回顾与展望
专知会员服务
33+阅读 · 2023年9月10日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
200+阅读 · 2020年5月2日
清华大学《高级机器学习》课程
专知
40+阅读 · 2020年7月21日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月3日
VIP会员
相关VIP内容
基于神经网络的机器人学习与控制:回顾与展望
专知会员服务
33+阅读 · 2023年9月10日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
200+阅读 · 2020年5月2日
相关基金
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员