This paper advances the general theory of continuous sparse regularisation on measures with the Beurling-LASSO (BLASSO). This TV-regularised convex program on the space of measures allows to recover a sparse measure using a noisy observation from a measurement operator. While previous works have uncovered the central role played by this operator and its associated kernel in order to get estimation error bounds, the latter requires a technical local positive curvature (LPC) assumption to be verified on a case-by-case basis. In practice, this yields only few LPC-kernels for which this condition is proved. In this paper, we prove that the ``sinc-4'' kernel, used for signal recovery and mixture problems, does satisfy the LPC assumption. Furthermore, we introduce the kernel switch analysis, which allows to leverage on a known LPC-kernel as a pivot kernel to prove error bounds. Together, these results provide easy-to-check conditions to get error bounds for a large family of translation-invariant model kernels. Besides, we also show that known BLASSO guarantees can be made adaptive to the noise level. This improves on known results where this error is fixed with some parameters depending on the model kernel. We illustrate the interest of our results in the case of mixture model estimation, using band-limiting smoothing and sketching techniques to reduce the computational burden of BLASSO.


翻译:本文推进了关于测度空间上连续稀疏正则化的一般理论,重点研究Beurling-LASSO(BLASSO)方法。这种在测度空间上的全变差正则化凸优化程序,能够通过含噪声的观测数据从测量算子中恢复稀疏测度。尽管先前的研究已揭示该算子及其关联核函数在获得估计误差界中的核心作用,但相关结论需要依赖技术性的局部正曲率(LPC)假设,且该假设需针对具体案例逐一验证。实践中,仅有少数核函数被证明满足LPC条件。本文首先证明了用于信号恢复和混合问题的"sinc-4"核函数确实满足LPC假设。进一步,我们提出核函数切换分析法,该方法可利用已知的LPC核函数作为枢轴核,来推导误差界。这些结论共同为一大类平移不变模型核函数提供了易于验证的误差界条件。此外,我们还证明已知的BLASSO保证可以自适应于噪声水平,这改进了以往结果中误差固定且依赖模型核函数参数的情况。我们通过混合模型估计的案例说明本研究的价值,其中采用带限平滑技术和草图技术来降低BLASSO的计算负担。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
16+阅读 · 2022年5月17日
Arxiv
14+阅读 · 2018年4月18日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员