AI systems increasingly assist human decision making by producing preliminary assessments of complex inputs. However, such AI-generated assessments can often be noisy or systematically biased, raising a central question: how should costly human effort be allocated to correct AI outputs where it matters the most for the final decision? We propose a general decision-theoretic framework for human-AI collaboration in which AI assessments are treated as factor-level signals and human judgments as costly information that can be selectively acquired. We consider cases where the optimal selection problem reduces to maximizing a reward associated with each candidate subset of factors, and turn policy design into reward estimation. We develop estimation procedures under both nonparametric and linear models, covering contextual and non-contextual selection rules. In the linear setting, the optimal rule admits a closed-form expression with a clear interpretation in terms of factor importance and residual variance. We apply our framework to AI-assisted peer review. Our approach substantially outperforms LLM-only predictions and achieves performance comparable to full human review while using only 20-30% of the human information. Across different selection rules, we find that simpler rules derived under linear models can significantly reduce computational cost without harming final prediction performance. Our results highlight both the value of human intervention and the efficiency of principled dispatching.


翻译:人工智能系统通过生成复杂输入的初步评估,正日益辅助人类决策。然而,此类AI生成的评估常常存在噪声或系统性偏差,这引出了一个核心问题:应如何分配成本高昂的人力,以在那些对最终决策至关重要的环节修正AI的输出?我们提出了一个用于人机协作的通用决策理论框架,其中将AI评估视为因子层面的信号,而将人类判断视为可选择获取的有成本信息。我们考虑的情形是,最优选择问题可简化为最大化与每个候选因子子集相关联的奖励,从而将策略设计转化为奖励估计。我们开发了在非参数模型和线性模型下的估计程序,涵盖了上下文相关和非上下文相关的选择规则。在线性设定下,最优规则具有闭合形式的表达式,其在因子重要性和残差方差方面的解释清晰明了。我们将我们的框架应用于AI辅助的同行评审。我们的方法显著优于仅使用大语言模型的预测,并在仅使用20-30%人类信息的情况下,达到了与完全人工评审相当的性能。在不同的选择规则中,我们发现,基于线性模型推导出的更简单规则可以显著降低计算成本,而不会损害最终的预测性能。我们的结果既凸显了人类干预的价值,也体现了基于原则的调度的高效性。

1
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
《人工智能辅助决策中信任的时间演化​​》225页
专知会员服务
24+阅读 · 2025年5月12日
《人工智能在决策中角色的演变》最新278页
专知会员服务
57+阅读 · 2025年4月25日
《人工智能辅助决策面临的三大挑战》最新33页
专知会员服务
52+阅读 · 2025年1月8日
军事决策中的人工智能:支持人类,而非取代人类
专知会员服务
63+阅读 · 2024年9月10日
《人工智能辅助决策面临的三大挑战》
专知会员服务
85+阅读 · 2023年12月15日
最新《可解释人工智能》概述,50页ppt
专知
12+阅读 · 2021年3月17日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
Arxiv
0+阅读 · 3月3日
Arxiv
0+阅读 · 2月1日
VIP会员
最新内容
《图世界模型:概念、分类体系与未来方向》
专知会员服务
8+阅读 · 5月1日
Palantir AIP平台:连接智能体与决策
专知会员服务
15+阅读 · 5月1日
《美海军软件测试战略》90页slides
专知会员服务
11+阅读 · 5月1日
面向具身智能与机器人仿真的三维生成:综述
专知会员服务
11+阅读 · 4月30日
相关资讯
最新《可解释人工智能》概述,50页ppt
专知
12+阅读 · 2021年3月17日
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员