This paper characterizes optimal classification when individuals adjust their behavior in response to the classification rule. We model the interaction between a designer and a population as a Stackelberg game: the designer selects a classification rule anticipating how individuals will comply, cheat, or abstain in order to obtain a favorable classification. Under standard monotone likelihood ratio assumptions, and for a general set of classification objectives, optimal rules belong to a small and interpretable family--single-threshold and two-cut rules--that encompass both conventional and counterintuitive designs. Our results depart sharply from prior findings that optimal classifiers reward higher signals. In equilibrium, global accuracy can be maximized by rewarding those with lower likelihood ratios or by concentrating rewards or penalties in a middle band to improve informational quality. We further characterize classification objectives that rule out socially harmful equilibria that disincentivize compliance for some populations.


翻译:本文刻画了个体根据分类规则调整其行为时的最优分类问题。我们将设计者与群体之间的互动建模为斯塔克尔伯格博弈:设计者选择一个分类规则,并预期个体为获得有利分类而采取遵守、欺骗或放弃的行为。在标准的单调似然比假设下,针对一般化的分类目标集合,最优规则属于一个简洁且可解释的族——单阈值与双截断规则——该族同时涵盖了传统设计与反直觉设计。我们的结果与先前认为最优分类器应奖励更高信号的研究结论显著不同。在均衡状态下,全局准确性可以通过奖励具有较低似然比的个体,或将奖励或惩罚集中于中间区间以提高信息质量来实现。我们进一步刻画了能够排除某些群体因激励不足而降低遵守意愿的社会有害均衡的分类目标。

0
下载
关闭预览

相关内容

专知会员服务
42+阅读 · 2021年8月12日
专知会员服务
42+阅读 · 2021年1月18日
专知会员服务
29+阅读 · 2020年10月2日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2025年12月25日
VIP会员
相关VIP内容
专知会员服务
42+阅读 · 2021年8月12日
专知会员服务
42+阅读 · 2021年1月18日
专知会员服务
29+阅读 · 2020年10月2日
相关资讯
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员