Risk measures such as Conditional Value-at-Risk (CVaR) focus on extreme losses, where scarce tail data makes model error unavoidable. To hedge misspecification, one evaluates worst-case tail risk over an ambiguity set. Using Extreme Value Theory (EVT), we derive first-order asymptotics for worst-case tail risk for a broad class of tail-risk measures under standard ambiguity sets, including Wasserstein balls and $φ$-divergence neighborhoods. We show that robustification can alter the nominal tail asymptotic scaling as the tail level $β\to0$, leading to excess risk inflation. Motivated by this diagnostic, we propose a tail-calibrated ambiguity design that preserves the nominal tail asymptotic scaling while still guarding against misspecification. Under standard domain of attraction assumptions, we prove that the resulting worst-case risk preserves the baseline first-order scaling as $β\to0$, uniformly over key tuning parameters, and that a plug-in implementation based on consistent tail-index estimation inherits these guarantees. Synthetic and real-data experiments show that the proposed design avoids the severe inflation often induced by standard ambiguity sets.


翻译:诸如条件风险价值(CVaR)等风险度量关注极端损失,该区域尾部数据稀缺,模型误差不可避免。为对冲模型误设风险,通常在一个模糊集上评估最坏情况下的尾部风险。利用极值理论(EVT),我们推导了在标准模糊集(包括Wasserstein球和$φ$-散度邻域)下,一类广泛尾部风险度量的最坏情况尾部风险的一阶渐近性质。研究表明,随着尾部水平$β\to0$,鲁棒化过程可能改变名义尾部渐近标度,导致超额风险膨胀。基于此诊断分析,我们提出了一种尾部校准的模糊集设计方法,该方法能在防范模型误设的同时,保持名义尾部渐近标度不变。在标准的吸引域假设下,我们证明了所得到的最坏情况风险在$β\to0$时保持基线一阶标度,且该性质在关键调节参数上一致成立;同时,基于一致性尾部指数估计的插件实现方法能够继承这些理论保证。合成数据与真实数据实验表明,所提出的设计方法能够避免标准模糊集常引发的严重风险膨胀。

0
下载
关闭预览

相关内容

【斯坦福博士论文】概率机器学习中的不确定性原理
专知会员服务
27+阅读 · 2025年8月4日
【ETHZ博士论文】分布不确定性下的决策,234页pdf
专知会员服务
49+阅读 · 2024年4月5日
【CMU博士论文】分布偏移下的不确定性量化,226页pdf
专知会员服务
31+阅读 · 2023年9月30日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
26+阅读 · 2020年10月13日
图像分割损失函数最详细总结,含代码
极市平台
12+阅读 · 2020年7月9日
通用矩阵乘(GEMM)优化与卷积计算
极市平台
51+阅读 · 2019年6月19日
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
从信息论的角度来理解损失函数
深度学习每日摘要
17+阅读 · 2019年4月7日
总结-空洞卷积(Dilated/Atrous Convolution)
极市平台
41+阅读 · 2019年2月25日
基于数据的分布式鲁棒优化算法及其应用【附PPT与视频资料】
人工智能前沿讲习班
27+阅读 · 2018年12月13日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
图像分割损失函数最详细总结,含代码
极市平台
12+阅读 · 2020年7月9日
通用矩阵乘(GEMM)优化与卷积计算
极市平台
51+阅读 · 2019年6月19日
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
从信息论的角度来理解损失函数
深度学习每日摘要
17+阅读 · 2019年4月7日
总结-空洞卷积(Dilated/Atrous Convolution)
极市平台
41+阅读 · 2019年2月25日
基于数据的分布式鲁棒优化算法及其应用【附PPT与视频资料】
人工智能前沿讲习班
27+阅读 · 2018年12月13日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员