Despite the widespread use of boosting in structured prediction, a general theoretical understanding of aggregation beyond scalar losses remains incomplete. We study vector-valued and conditional density prediction under general divergences and identify stability conditions under which aggregation amplifies weak guarantees into strong ones. We formalize this stability property as \emph{$(α,β)$-boostability}. We show that geometric median aggregation achieves $(α,β)$-boostability for a broad class of divergences, with tradeoffs that depend on the underlying geometry. For vector-valued prediction and conditional density estimation, we characterize boostability under common divergences ($\ell_1$, $\ell_2$, $\TV$, and $\Hel$) with geometric median, revealing a sharp distinction between dimension-dependent and dimension-free regimes. We further show that while KL divergence is not directly boostable via geometric median aggregation, it can be handled indirectly through boostability under Hellinger distance. Building on these structural results, we propose a generic boosting framework \textsc{GeoMedBoost} based on exponential reweighting and geometric-median aggregation. Under a weak learner condition and $(α,β)$-boostability, we obtain exponential decay of the empirical divergence exceedance error. Our framework recovers classical algorithms such as \textsc{MedBoost}, \textsc{AdaBoost}, and \textsc{SAMME} as special cases, and provides a unified geometric view of boosting for structured prediction.


翻译:尽管Boosting在结构化预测中广泛应用,但超越标量损失的聚合理论理解仍不完整。我们研究一般散度下的向量值与条件密度预测,并识别出能够将弱保证放大为强保证的稳定性条件。我们将此稳定性形式化为\emph{$(α,β)$-可提升性}。我们证明几何中位数聚合能为广泛类别的散度实现$(α,β)$-可提升性,其权衡取决于底层几何结构。针对向量值预测与条件密度估计,我们刻画了在常见散度($\ell_1$、$\ell_2$、$\TV$与$\Hel$)下使用几何中位数的可提升性,揭示了维度依赖与维度无关机制之间的显著区别。我们进一步证明,虽然KL散度无法直接通过几何中位数聚合实现可提升性,但可通过Hellinger距离下的可提升性间接处理。基于这些结构结果,我们提出一个基于指数重加权与几何中位数聚合的通用Boosting框架\textsc{GeoMedBoost}。在弱学习器条件与$(α,β)$-可提升性假设下,我们获得了经验散度超限误差的指数衰减。我们的框架将经典算法如\textsc{MedBoost}、\textsc{AdaBoost}和\textsc{SAMME}作为特例进行统一,为结构化预测的Boosting提供了统一的几何视角。

0
下载
关闭预览

相关内容

专知会员服务
74+阅读 · 2021年7月21日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
132+阅读 · 2020年5月14日
强化学习《奖励函数设计: Reward Shaping》详细解读
深度强化学习实验室
19+阅读 · 2020年9月1日
常用的模型集成方法介绍:bagging、boosting 、stacking
自定义损失函数Gradient Boosting
AI研习社
14+阅读 · 2018年10月16日
超全总结:神经网络加速之量化模型 | 附带代码
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
最新“指挥控制”领域出版物合集(16份)
专知会员服务
7+阅读 · 4月12日
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
15+阅读 · 4月12日
远程空中优势:新一代超视距导弹的兴起
专知会员服务
2+阅读 · 4月12日
大语言模型溯因推理的统一分类学与综述
专知会员服务
4+阅读 · 4月12日
相关VIP内容
专知会员服务
74+阅读 · 2021年7月21日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
132+阅读 · 2020年5月14日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员