Large language models, trained on personal data, are increasingly able to mimic individual personalities. These ``AI clones'' or ``AI agents'' have the potential to transform how people search for matches in contexts ranging from marriage to employment. This paper presents a theoretical framework to study the tradeoff between the substantially expanded search capacity of AI representations and their imperfect representation of humans. An individual's personality is modeled as a point in $k$-dimensional Euclidean space, and an individual's AI representation is modeled as a noisy approximation of that personality. I compare two search regimes: Under in person search, each person randomly meets some number of individuals and matches to the most compatible among them; under AI-mediated search, individuals match to the person with the most compatible AI representation. I show that a finite number of in-person encounters yields a better expected match than search over infinite AI representations. Moreover, when personality is sufficiently high-dimensional, simply meeting two people in person is more effective than search on an AI platform, regardless of the size of its candidate pool.


翻译:基于个人数据训练的大型语言模型,正日益能够模拟个体人格。这些“AI克隆”或“AI代理”有潜力改变人们在从婚姻到就业等各种情境下的匹配搜索方式。本文提出了一个理论框架,用以研究AI表征在极大扩展搜索能力与其对人类的不完美表征之间的权衡。个体的个性被建模为$k$维欧几里得空间中的一个点,而个体的AI表征则被建模为该个性的一个有噪声近似。我比较了两种搜索机制:在面对面搜索机制下,每个人随机遇见一定数量的个体,并与其中最兼容者匹配;在AI中介搜索机制下,个体与AI表征最兼容的人匹配。我证明了有限次数的面对面相遇,其产生的预期匹配质量优于对无限数量AI表征的搜索。此外,当个性维度足够高时,仅仅与两个人面对面相遇,也比在任何规模的AI平台候选池中进行搜索更为有效。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
【ICML2024】多元化对齐路线图
专知会员服务
22+阅读 · 2024年5月2日
专知会员服务
27+阅读 · 2021年3月5日
专知会员服务
23+阅读 · 2021年2月6日
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
35+阅读 · 2020年9月3日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
多项NLP任务新SOTA,Facebook提出预训练模型BART
机器之心
22+阅读 · 2019年11月4日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
11+阅读 · 2019年6月16日
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月9日
Arxiv
0+阅读 · 1月7日
Arxiv
0+阅读 · 1月7日
VIP会员
相关VIP内容
【ICML2024】多元化对齐路线图
专知会员服务
22+阅读 · 2024年5月2日
专知会员服务
27+阅读 · 2021年3月5日
专知会员服务
23+阅读 · 2021年2月6日
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
35+阅读 · 2020年9月3日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
相关基金
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员