This paper examines algorithmic lookism-the systematic preferential treatment based on physical appearance-in text-to-image (T2I) generative AI and a downstream gender classification task. Through the analysis of 26,400 synthetic faces created with Stable Diffusion 2.1 and 3.5 Medium, we demonstrate how generative AI models systematically associate facial attractiveness with positive attributes and vice-versa, mirroring socially constructed biases rather than evidence-based correlations. Furthermore, we find significant gender bias in three gender classification algorithms depending on the attributes of the input faces. Our findings reveal three critical harms: (1) the systematic encoding of attractiveness-positive attribute associations in T2I models; (2) gender disparities in classification systems, where women's faces, particularly those generated with negative attributes, suffer substantially higher misclassification rates than men's; and (3) intensifying aesthetic constraints in newer models through age homogenization, gendered exposure patterns, and geographic reductionism. These convergent patterns reveal algorithmic lookism as systematic infrastructure operating across AI vision systems, compounding existing inequalities through both representation and recognition. Disclaimer: This work includes visual and textual content that reflects stereotypical associations between physical appearance and socially constructed attributes, including gender, race, and traits associated with social desirability. Any such associations found in this study emerge from the biases embedded in generative AI systems-not from empirical truths or the authors' views.


翻译:本文研究了算法颜值主义——基于外貌的系统性优待现象——在文本到图像生成式人工智能及下游性别分类任务中的体现。通过对Stable Diffusion 2.1和3.5 Medium生成的26,400张合成人脸进行分析,我们揭示了生成式AI模型如何系统地将面部吸引力与积极属性相关联(反之亦然),这种关联映射的是社会建构的偏见而非基于证据的相关性。此外,我们发现三种性别分类算法存在显著的性别偏见,其表现取决于输入面部的属性特征。我们的研究揭示了三大关键危害:(1)文本到图像模型中吸引力-积极属性关联的系统性编码;(2)分类系统中的性别差异,其中女性面孔——尤其是生成时带有负面属性的面孔——误分类率显著高于男性;(3)通过年龄同质化、性别化暴露模式和地理简化主义,新模型中美学的约束性持续强化。这些趋同模式表明,算法颜值主义是横跨AI视觉系统的系统性基础设施,通过表征与识别的双重机制加剧了现存的不平等。免责声明:本研究包含反映外貌与社会建构属性(包括性别、种族及与社会期望相关的特质)间刻板关联的视觉与文本内容。本研究中发现的任何此类关联均源于生成式AI系统中嵌入的偏见,而非经验事实或作者观点。

0
下载
关闭预览

相关内容

人脸合成技术综述
专知会员服务
25+阅读 · 2021年11月21日
人脸相关算法、数据集、文献资源大列表
专知
16+阅读 · 2019年3月16日
实践 | 如何使用深度学习为照片自动生成文本描述?
七月在线实验室
10+阅读 · 2018年5月21日
【学界】 李飞飞学生最新论文:利用场景图生成图像
GAN生成式对抗网络
15+阅读 · 2018年4月9日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
人脸合成技术综述
专知会员服务
25+阅读 · 2021年11月21日
相关资讯
人脸相关算法、数据集、文献资源大列表
专知
16+阅读 · 2019年3月16日
实践 | 如何使用深度学习为照片自动生成文本描述?
七月在线实验室
10+阅读 · 2018年5月21日
【学界】 李飞飞学生最新论文:利用场景图生成图像
GAN生成式对抗网络
15+阅读 · 2018年4月9日
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员