We study how electoral rules shape polarization dynamics when voters and candidates both adapt to repeated election outcomes. We introduce two geometric primitives for comparing rules under this feedback: the \emph{winner radius} $R_t = \max_i \|x_i - w^{(t)}\|$, the distance from the winner to the farthest voter, and the \emph{supporter centroid radius} $S_t = \max_j \|c_j - s_j^{(t)}\|$, the largest gap between any candidate and their support base. We show that $R_t$ controls a one-step contraction bound on voter disagreement and $S_t$ plays the analogous role for candidate dispersion, and that these two objectives are in tension. Rules that reduce $R_t$ tend to increase $S_t$, and vice versa. A winner close to the voter median does not resolve the tension, since proximity to the median and proximity to the Chebyshev center are different objectives. We use this framing to organize a simulation study across seven standard electoral rules and one convex-combination benchmark, comprising 1000+ runs across diverse electorate profiles, voter mechanisms, and camp-balance settings. The empirical results confirm the theoretical tradeoff: winner-take-all rules achieve small $S_t$ at the cost of large $R_t$ and weaker voter depolarization, while convex-combination rules reverse this. An oracle comparison further shows that minimizing $R_t$ per step and minimizing voter disagreement per step are distinct objectives with different long-run consequences for both voter and candidate dynamics.


翻译:我们研究了当选民和候选人双方都适应反复选举结果时,选举规则如何影响极化动态。我们引入两种几何基本量来比较这种反馈下的规则:胜选者半径 \(R_t = \max_i \|x_i - w^{(t)}\|\)(胜选者到最远选民的距离)和支持者质心半径 \(S_t = \max_j \|c_j - s_j^{(t)}\|\)(任一候选人与其支持基础的最大差距)。我们证明,\(R_t\) 控制着选民分歧的一步收缩界,而 \(S_t\) 对候选人分散度起类似作用,且这两个目标存在张力。减小 \(R_t\) 的规则往往倾向于增大 \(S_t\),反之亦然。胜选者靠近选民中位数并不能解决这一张力,因为靠近中位数与靠近切比雪夫中心是不同的目标。我们利用这一框架,组织了涵盖七种标准选举规则和一个凸组合基准的模拟研究,涉及超过1000次运行,覆盖多样化的选民分布、选民机制和阵营平衡设置。实证结果证实了理论权衡:胜者全得规则实现了较小的 \(S_t\),但代价是较大的 \(R_t\) 和较弱的选民去极化,而凸组合规则则相反。进一步的神谕比较表明,最小化每步 \(R_t\) 和最小化每步选民分歧是不同目标,对选民和候选人动态具有不同的长期影响。

0
下载
关闭预览

相关内容

【ICML2022】几何多模态对比表示学习
专知会员服务
45+阅读 · 2022年7月17日
【2020 最新论文】对比学习中什么应该不是对比的?
专知会员服务
39+阅读 · 2020年8月16日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
33+阅读 · 2020年4月23日
【AAAI2021】对比聚类,Contrastive Clustering
专知
26+阅读 · 2021年1月30日
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
一文搞懂反向传播
机器学习与推荐算法
18+阅读 · 2020年3月12日
详解GAN的谱归一化(Spectral Normalization)
PaperWeekly
11+阅读 · 2019年2月13日
数据分析师应该知道的16种回归方法:负二项回归
数萃大数据
74+阅读 · 2018年9月16日
推荐算法:Match与Rank模型的交织配合
从0到1
15+阅读 · 2017年12月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 3月27日
VIP会员
相关主题
最新内容
认知战与交战性质的改变:神经战略视角
专知会员服务
5+阅读 · 5月8日
人工智能如何变革军事C5ISR作战
专知会员服务
12+阅读 · 5月8日
相关VIP内容
【ICML2022】几何多模态对比表示学习
专知会员服务
45+阅读 · 2022年7月17日
【2020 最新论文】对比学习中什么应该不是对比的?
专知会员服务
39+阅读 · 2020年8月16日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
33+阅读 · 2020年4月23日
相关资讯
【AAAI2021】对比聚类,Contrastive Clustering
专知
26+阅读 · 2021年1月30日
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
一文搞懂反向传播
机器学习与推荐算法
18+阅读 · 2020年3月12日
详解GAN的谱归一化(Spectral Normalization)
PaperWeekly
11+阅读 · 2019年2月13日
数据分析师应该知道的16种回归方法:负二项回归
数萃大数据
74+阅读 · 2018年9月16日
推荐算法:Match与Rank模型的交织配合
从0到1
15+阅读 · 2017年12月18日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员