Reweighting a distribution to minimize a distance to a target distribution is a powerful and flexible strategy for estimating a wide range of causal effects, but can be challenging in practice because optimal weights typically depend on knowledge of the underlying data generating process. In this paper, we focus on design-based weights, which do not incorporate outcome information; prominent examples include prospective cohort studies, survey weighting, and the weighting portion of augmented weighting estimators. In such applications, we explore the central role of representation learning in finding desirable weights in practice. Unlike the common approach of assuming a well-specified representation, we highlight the error due to the choice of a representation and outline a general framework for finding suitable representations that minimize this error. Building on recent work that combines balancing weights and neural networks, we propose an end-to-end estimation procedure that learns a flexible representation, while retaining promising theoretical properties. We show that this approach is competitive in a range of common causal inference tasks.


翻译:通过重加权分布以最小化与目标分布的距离,是估计广泛因果效应的强大而灵活的策略,但在实践中可能具有挑战性,因为最优权重通常依赖于对底层数据生成过程的知识。本文聚焦于基于设计的权重,这类权重不纳入结果信息;突出的例子包括前瞻性队列研究、调查加权以及增强加权估计器中涉及加权的部分。在此类应用中,我们探讨了表示学习在实践中寻找理想权重的核心作用。与通常假设一个正确设定的表示方法不同,我们强调了由表示选择引起的误差,并概述了一个用于寻找能最小化此误差的合适表示的通用框架。基于近期结合平衡权重与神经网络的研究,我们提出了一种端到端的估计程序,该程序学习一个灵活的表示,同时保留了良好的理论性质。我们证明,该方法在一系列常见的因果推断任务中具有竞争力。

0
下载
关闭预览

相关内容

【博士论文】在时空系统中学习因果表示
专知会员服务
34+阅读 · 2025年2月25日
基于因果推断的推荐系统去偏研究
专知会员服务
21+阅读 · 2024年11月10日
因果关联学习,Causal Relational Learning
专知会员服务
185+阅读 · 2020年4月21日
基于深度元学习的因果推断新方法
图与推荐
12+阅读 · 2020年7月21日
多因素问题分析时,如何确立各因素权重?
人人都是产品经理
75+阅读 · 2020年3月4日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
因果推理学习算法资源大列表
专知
27+阅读 · 2019年3月3日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
关系推理:基于表示学习和语义要素
计算机研究与发展
19+阅读 · 2017年8月22日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
23+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月13日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
23+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员