We provide a control-theoretic perspective on optimal tensor algorithms for minimizing a convex function in a finite-dimensional Euclidean space. Given a function $Φ: \mathbb{R}^d \rightarrow \mathbb{R}$ that is convex and twice continuously differentiable, we study a closed-loop control system that is governed by the operators $\nabla Φ$ and $\nabla^2 Φ$ together with a feedback control law $λ(\cdot)$ satisfying the algebraic equation $(λ(t))^p\|\nablaΦ(x(t))\|^{p-1} = θ$ for some $θ\in (0, 1)$. Our first contribution is to prove the existence and uniqueness of a local solution to this system via the Banach fixed-point theorem. We present a simple yet nontrivial Lyapunov function that allows us to establish the existence and uniqueness of a global solution under certain regularity conditions and analyze the convergence properties of trajectories. The rate of convergence is $O(1/t^{(3p+1)/2})$ in terms of objective function gap and $O(1/t^{3p})$ in terms of squared gradient norm. Our second contribution is to provide two algorithmic frameworks obtained from discretization of our continuous-time system, one of which generalizes the large-step A-HPE framework and the other of which leads to a new optimal $p$-th order tensor algorithm. While our discrete-time analysis can be seen as a simplification and generalization of~\citet{Monteiro-2013-Accelerated}, it is largely motivated by the aforementioned continuous-time analysis, demonstrating the fundamental role that the feedback control plays in optimal acceleration and the clear advantage that the continuous-time perspective brings to algorithmic design. A highlight of our analysis is that we show that all of the $p$-th order optimal tensor algorithms that we discuss minimize the squared gradient norm at a rate of $O(k^{-3p})$, which complements the recent analysis.


翻译:本文从控制理论视角探讨有限维欧几里得空间中凸函数最小化的最优张量算法。给定一个凸且二次连续可微的函数 $Φ: \mathbb{R}^d \rightarrow \mathbb{R}$,我们研究一个由算子 $\nabla Φ$ 和 $\nabla^2 Φ$ 以及满足代数方程 $(λ(t))^p\|\nablaΦ(x(t))\|^{p-1} = θ$(其中 $θ\in (0, 1)$)的反馈控制律 $λ(\cdot)$ 共同支配的闭环控制系统。我们的第一个贡献是通过巴拿赫不动点定理证明了该系统局部解的存在唯一性。我们提出了一个简单但非平凡的Lyapunov函数,使我们能够在一定的正则性条件下建立全局解的存在唯一性,并分析轨迹的收敛特性。在目标函数间隙方面的收敛速度为 $O(1/t^{(3p+1)/2})$,在梯度范数平方方面的收敛速度为 $O(1/t^{3p})$。我们的第二个贡献是提供了通过连续时间系统离散化得到的两个算法框架,其中一个推广了大步长A-HPE框架,另一个则引出了新的最优 $p$ 阶张量算法。虽然我们的离散时间分析可被视为对~\citet{Monteiro-2013-Accelerated} 工作的简化和推广,但它主要受前述连续时间分析的启发,证明了反馈控制在最优加速中扮演的根本性角色,以及连续时间视角为算法设计带来的明显优势。我们分析的一个亮点是,证明了所讨论的所有 $p$ 阶最优张量算法均以 $O(k^{-3p})$ 的速率最小化梯度范数平方,这补充了最近的分析结果。

0
下载
关闭预览

相关内容

【伯克利马毅老师】强化学习与最优控制综述
专知会员服务
78+阅读 · 2022年4月26日
南大《优化方法 (Optimization Methods》课程,推荐!
专知会员服务
80+阅读 · 2022年4月3日
机器学习必读新书-《凸优化算法原理详解》,334页pdf
专知会员服务
97+阅读 · 2022年1月4日
【经典书】凸优化理论,MIT-Dimitri P. Bertsekas教授,257页pdf
专知会员服务
54+阅读 · 2020年12月24日
斯坦福EE364a《凸优化》课件,301页ppt
专知会员服务
100+阅读 · 2020年7月14日
【干货书】凸随机优化,320页pdf
专知
12+阅读 · 2022年9月16日
博客 | 机器学习中的数学基础(凸优化)
AI研习社
14+阅读 · 2018年12月16日
【学科发展报告】自适应动态规划
中国自动化学会
25+阅读 · 2018年9月14日
干货|掌握机器学习数学基础之优化[1](重点知识)
机器学习研究会
10+阅读 · 2017年11月19日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员