We study the extent to which standard machine learning algorithms rely on exchangeability and independence of data by introducing a monotone adversarial corruption model. In this model, an adversary, upon looking at a "clean" i.i.d. dataset, inserts additional "corrupted" points of their choice into the dataset. These added points are constrained to be monotone corruptions, in that they get labeled according to the ground-truth target function. Perhaps surprisingly, we demonstrate that in this setting, all known optimal learning algorithms for binary classification can be made to achieve suboptimal expected error on a new independent test point drawn from the same distribution as the clean dataset. On the other hand, we show that uniform convergence-based algorithms do not degrade in their guarantees. Our results showcase how optimal learning algorithms break down in the face of seemingly helpful monotone corruptions, exposing their overreliance on exchangeability.


翻译:本文通过引入单调对抗性污染模型,研究标准机器学习算法在多大程度上依赖于数据的可交换性和独立性。在该模型中,敌手在观察到一个"干净"的独立同分布数据集后,可以自主选择插入额外的"污染"数据点。这些添加的点被约束为单调污染,即它们根据真实目标函数进行标注。令人惊讶的是,我们证明在此设定下,所有已知的二元分类最优学习算法对于从与干净数据集相同分布中抽取的新独立测试点,都可能获得次优的期望误差。另一方面,我们证明基于一致收敛的算法不会降低其性能保证。我们的结果揭示了最优学习算法在面对看似有益的单调污染时如何失效,暴露了它们对可交换性的过度依赖。

0
下载
关闭预览

相关内容

《联邦学习中的对抗性攻击》48页论文
专知会员服务
40+阅读 · 2023年11月1日
《美国防部对抗性机器学习》34页slides,卡内基梅隆大学
专知会员服务
65+阅读 · 2022年11月12日
专知会员服务
35+阅读 · 2021年8月13日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
91+阅读 · 2020年7月4日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Arxiv
0+阅读 · 2025年12月31日
VIP会员
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员