鲁宾因果框架


鲁宾因果模型 Rubin Causal Model (RCM) ,也称为 Neyman-Rubin 因果模型[1]是一种基于潜在结果框架的因果统计分析方法,以Donald Rubin的名字命名。“鲁宾因果模型”这个名字最早是由 Paul W. Holland 创造的。 [2] 潜在结果框架 Potential Outcomes Framework最初是由 Jerzy Neyman 在他 1923 年的硕士论文中提出的,[3]尽管他只在完全随机实验的背景下讨论了它。 [4]鲁宾将其扩展为在观察性和实验性研究中思考因果关系的一般框架。[1]


介绍

鲁宾因果模型是基于潜在结果的想法。例如,如果一个人上过大学,他在 40 岁时会有特定的收入,而如果他没有上过大学,他在 40 岁时会有不同的收入。为了衡量这个人上大学的因果效应,我们需要比较同一个人在两种不同的未来中的结果。由于不可能同时看到两种潜在结果,因此总是缺少其中一种潜在结果。这种困境就是“因果推理的基本问题”。


由于因果推理的根本问题,无法直接观察到单元级别的因果效应。然而,随机实验允许估计人口水平的因果效应。[5]随机实验将人们随机分配到对照组:大学或非大学。由于这种随机分配,各组(平均)相等,40 岁时的收入差异可归因于大学分配,因为这是各组之间的唯一差异。然后可以通过计算处理(上大学)和对照(非上大学)样本之间的平均值差异来获得平均因果效应(也称为平均处理效应)的估计值。


然而,在许多情况下,由于伦理或实际问题,随机实验是不可能的。在这种情况下,存在非随机分配机制。上大学的例子就是这种情况:人们不是随机分配上大学的。相反,人们可能会根据他们的经济状况、父母的教育等来选择上大学。已经开发了许多用于因果推断的统计方法,例如倾向得分匹配。这些方法试图通过寻找类似于处理单元的控制单元来纠正分配机制。


一个扩展案例

鲁宾定义了一个因果效应:

直观地说,一种处理 E 对另一种处理 C 的因果效应对于特定单位和从 [math]\displaystyle{ t_{1} }[/math][math]\displaystyle{ t_{2} }[/math] 是当时会发生的事情之间的差异 [math]\displaystyle{ t_{2} }[/math] 如果装置暴露于 E 开始于 [math]\displaystyle{ t_{1} }[/math] 以及会发生什么 [math]\displaystyle{ t_{2} }[/math] 如果该装置已暴露于 C 开始于[math]\displaystyle{ t_{1} }[/math]:“如果一个小时前我服用了两个阿司匹林而不是一杯水,我的头痛现在就会消失”,或者“因为一个小时前我服用了两个阿司匹林而不是一杯水,我的头痛现在消失了.' 我们对 E 与 C 处理的因果效应的定义将反映这种直观的含义。[5]

根据 RCM,您在一小时前服用或不服用阿司匹林的因果效应是您的头部在情况 1(服用阿司匹林)和情况 2(未服用阿司匹林)中的感受的差异。如果没有阿司匹林你的头痛仍然存在,但如果服用阿司匹林头痛就会消失,那么服用阿司匹林的因果效应是头痛缓解。在大多数情况下,我们对比较两种特性感兴趣,一种通常称为“处理”,另一种称为“控制”。这些标签有些随意。


潜在结果

假设 Joe 正在参加 FDA 对一种新的高血压药物的测试。如果我们无所不知,我们就会知道乔在处理t(新药)和控制c(未处理或当前标准处理)下的结果。因果效应或处理效应是这两种潜在结果之间的差异。

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 135 −5


如果乔服用新药丸,[math]\displaystyle{ Y_{t}(u) }[/math]就是他的血压。通常,该符号表示对单位u进行处理t 所产生的潜在结果。类似的,[math]\displaystyle{ Y_{c}(u) }[/math]是不同处理t或控制c对单元u的影响。在这种情况下,如果乔不服药,[math]\displaystyle{ Y_{c}(u) }[/math]就是他的血压。[math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math] 是服用新药的因果效应。


从这张表中我们只知道对 Joe 的因果效应。研究中的其他人如果服用药物,血压可能会升高。然而,不管对其他受试者的因果效应是什么,乔的因果效应是血压降低(相对于他没有服用避孕药时的血压)。


考虑更大的患者样本:

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 135 −5
玛丽 140 150 −10
莎莉 135 125 10
鲍勃 135 150 −15


因果效应对于每一个主题是不同的,但药物对乔,玛丽和鲍勃都有影响,因为因果效应是负的。他们服用药物后的血压低于每个人不服用药物时的血压。另一方面,对于 Sally 来说,这种药物会导致血压升高。


为了使潜在结果有意义,它必须是可能的,至少是先验已知可能的。例如,如果乔在任何情况下都无法获得新药,那么[math]\displaystyle{ Y_{t}(u) }[/math]对他来说是不可能的。它永远不会发生。而如果[math]\displaystyle{ Y_{t}(u) }[/math]永远无法观察到(即使在理论上),那么对乔的血压的因果效应是不确定的。


没有操纵就没有因果关系

新药的因果效应是明确定义的,因为它是两种可能发生的潜在结果的简单差异。在这种情况下,我们(或其他事物)可以干预世界,至少在概念上是这样,因此可能会发生不同的事。


如果永远不可能发生其中一种潜在结果,那么这种因果效应的定义就会变得更加棘手。例如,乔的身高对他的体重有什么因果关系?这似乎与我们的其他示例相似。我们只需要比较两个潜在的结果:Joe 在处理下的体重(处理被定义为高3英寸)和 Joe 在控制下的体重(控制被定义为他当前的身高)。


问题在于:我们无法增加乔的身高。没有办法观察如果乔更高,他的体重会是多少,因为没有办法让他更高。我们无法操纵乔的身高,因此调查身高对体重的因果关系毫无意义。因此有一个口号:没有操纵就没有因果关系。


稳定单元处理值假设 (SUTVA)

我们要求“对一个单元的 [潜在结果] 观察不应受到其他单元的特定处理分配的影响”(Cox 1958,第 2.4 节)。这被称为稳定单元处理值假设(SUTVA),它超越了独立性的概念。


在我们的例子中,Joe 的血压不应该取决于 Mary 是否接受了药物。但如果真的发生了呢?假设乔和玛丽住在同一所房子里,玛丽总是做饭。这种药物会导致玛丽渴望咸的食物,所以如果她服用这种药物,她会用比其他情况下更多的盐来烹饪。高盐饮食会增加乔的血压。因此,他的结果将取决于他接受的处理和玛丽接受的处理。


在不满足SUTVA的情况下,因果推断会更加困难。我们可以通过考虑更多的处理来解释相关的观察结果。我们通过考虑 Mary 是否接受处理来创建 4 个处理。


主题 乔 = c,玛丽 = t 乔 = t,玛丽 = t 乔 = c,玛丽 = c 乔 = t,玛丽 = c
140 130 125 120


回想一下,因果效应被定义为两个潜在结果之间的差异。在这种情况下,存在多种因果效应,因为存在两个以上的潜在结果。一是玛丽接受处理时药物对乔的因果效应[math]\displaystyle{ 130-140 }[/math]。另一个是当玛丽没有接受处理时对乔的因果效应[math]\displaystyle{ 120-125 }[/math]。第三是在乔没有得到处理的情况下,玛丽的处理对乔的因果效应[math]\displaystyle{ 140-125 }[/math]。Mary 接受的处理对 Joe 的因果影响比 Joe 接受的处理对 Joe 的影响更大,而且是相反的方向。


通过以这种方式考虑更多潜在结果,我们可以使SUTVA成立。但是,如果 Joe 以外的任何单位都依赖于 Mary,那么我们必须考虑进一步的潜在结果。依赖单位的数量越多,我们必须考虑的潜在结果就越多,计算也变得越复杂(考虑对不同的20个人进行的实验,每个人的处理状态都会影响其他人的结果)。为了(轻松)估计单一处理相对于对照的因果效应,SUTVA 应该成立。


平均因果效应 Average Causal Effect(ACE)

考虑:

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 135 −5
玛丽 130 145 −15
莎莉 130 145 −15
鲍勃 140 150 −10
詹姆士 145 140 +5
平均 135 143 −8


人们可以通过取所有因果效应的平均值来计算平均因果效应。


我们如何测量反馈效应会影响我们得出的推论。假设我们以百分比变化而不是绝对值来测量血压的变化。然后,根据确切的数字,平均因果效应可能是血压升高。例如,假设乔治的血压在控制下为 154,在处理后为 140。因果效应的绝对大小为 -14,但百分比差异(就 140 的处理水平而言)为 -10%。如果莎拉的血压在治疗下为 200,在控制下为 184,那么因果效应的绝对值是 16,而治疗值是 8%。乔治的血压绝对变化较小(-14 对 16)会产生较大的百分比变化(-10% 对 8%)。


因果推理的基本问题

到目前为止,我们所看到的结果永远无法在实践中衡量。根据定义,不可能在特定时间段内观察多种处理对受试者的影响。乔不能同时服用药物和不服用药物。因此,数据看起来像这样:

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 ? ?


问号是无法观察到的反馈。因果推断的基本问题[2]是不可能直接观测因果效应。然而,这并不是说因果推断是不可能的。某些技术和假设可以克服基本问题。


假设我们有以下数据:

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 ? ?
玛丽 ? 125 ?
莎莉 100 ? ?
鲍勃 ? 130 ?
詹姆士 ? 120 ?
平均 115 125 −10

如果我们假设效应恒定,我们可以推断出乔在控制下的潜在结果是什么:

[math]\displaystyle{ Y_{t}(u)=T+Y_{c}(u) }[/math][math]\displaystyle{ Y_{t}(u)-T=Y_{c}(u) }[/math]


如果我们想推断未观察到的值,我们可以假设一个恒定的影响。下表说明了与恒定效应假设一致的数据。

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 140 −10
玛丽 115 125 −10
莎莉 100 110 −10
鲍勃 120 130 −10
詹姆士 110 120 −10
平均 115 125 −10


所有受试者即使在治疗下有不同的结果,也具有相同的因果效应。


分配机制

分配机制,即分配单位处理的方法,影响平均因果效应的计算。一种分配机制是随机化。对于每个受试者,我们可以抛硬币来确定她是否接受处理。如果我们希望五个受试者接受处理,我们可以将处理分配给我们从帽子里挑选出来的前五个名字。当我们随机分配处理时,我们可能会得到不同的答案。


假设这个数据是真实的:

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 115 15
玛丽 120 125 −5
莎莉 100 125 −25
鲍勃 110 130 −20
詹姆士 115 120 −5
平均 115 123 −8


真正的平均因果效应是 -8。但是对这些人的因果效应永远不会等于这个平均值。因果效应各不相同,因为它通常(总是?)在现实生活中也是如此。在随机分配处理后,我们可以估计因果效应为:

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 ? ?
玛丽 120 ? ?
莎莉 ? 125 ?
鲍勃 ? 130 ?
詹姆士 115 ? ?
平均 121.66 127.5 −5.83


处理的不同随机分配产生对平均因果效应的不同估计。

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 ? ?
玛丽 120 ? ?
莎莉 100 ? ?
鲍勃 ? 130 ?
詹姆士 ? 120 ?
平均 116.67 125 −8.33


平均因果效应会有所不同,因为我们的样本很小并且反馈效应的方差很大。如果样本较大且方差较小,则无论随机分配给处理的特定单位如何,平均因果效应将更接近真实的平均因果效应。


或者,假设该机制将处理分配给所有男性且仅分配给他们。

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 ? ?
鲍勃 110 ? ?
詹姆士 105 ? ?
玛丽 ? 130 ?
莎莉 ? 125 ?
苏茜 ? 135 ?
平均 115 130 −15


在这种分配机制下,女性不可能接受处理,因此无法确定对女性受试者的平均因果效应。为了对受试者做出因果效应的任何推断,受试者接受治疗的概率必须大于 0 且小于 1。


完美医生机制 Perfect Doctor Mechanism

考虑使用完美医生作为分配机制。完美的医生知道每个受试者对药物或对照的反应如何,并为每个受试者分配对她最有益的处理。完美的医生知道有关患者样本的以下信息:

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
130 115 15
鲍勃 120 125 −5
詹姆士 100 150 −50
玛丽 115 125 −10
莎莉 120 130 −10
苏茜 135 105 30
平均 120 125 −5


基于这些知识,她将进行以下处理分配:

主题 [math]\displaystyle{ Y_{t}(u) }[/math] [math]\displaystyle{ Y_{c}(u) }[/math] [math]\displaystyle{ Y_{t}(u)-Y_{c}(u) }[/math]
? 115 ?
鲍勃 120 ? ?
詹姆士 100 ? ?
玛丽 115 ? ?
莎莉 120 ? ?
苏茜 ? 105 ?
平均 113.75 110 3.75


完美的医生通过过滤掉对处理和控制的不良反应来扭曲这两个平均值。均值之间的差异,即假定的平均因果效应,在取决于细节的方向上发生扭曲。例如,像Susie这样因服药而受到伤害的受试者会被完美的医生分配到对照组,从而掩盖了药物的负面影响。


结论

在某个时间点对单个单位的处理的因果效应是经过处理和未经过处理的结果变量之间的差异。因果推断的基本问题是不可能观察到对单个单元的因果效应。你要么现在服用阿司匹林,要么不服用。因此,必须做出假设以估计缺失的反事实。


Rubin 因果模型还与工具变量(Angrist、Imbens 和 Rubin,1996 年)[6]和其他因果推断技术相关联。有关 Rubin 因果模型、结构方程建模和其他因果推断统计方法之间联系的更多信息,请参见 Morgan 和 Winship (2007)。[7]


另见


参考文献

  1. 1.0 1.1 Sekhon, Jasjeet (2007). "The Neyman–Rubin Model of Causal Inference and Estimation via Matching Methods". The Oxford Handbook of Political Methodology. http://sekhon.berkeley.edu/papers/SekhonOxfordHandbook.pdf. 
  2. 2.0 2.1 Holland, Paul W. (1986). "Statistics and Causal Inference". Journal of the American Statistical Association. 81 (396): 945–960. doi:10.1080/01621459.1986.10478354. JSTOR 2289064.
  3. Neyman, Jerzy. Sur les applications de la theorie des probabilites aux experiences agricoles: Essai des principes. Master's Thesis (1923). Excerpts reprinted in English, Statistical Science, Vol. 5, pp. 463–472. (Dorota Dabrowska, and T. P. Speed, Translators.)
  4. Rubin, Donald (2005). "Causal Inference Using Potential Outcomes". Journal of the American Statistical Association. 100 (469): 322–331. doi:10.1198/016214504000001880.
  5. 5.0 5.1 Rubin, Donald (1974). "Estimating Causal Effects of Treatments in Randomized and Nonrandomized Studies". Journal of Educational Psychology. 66 (5): 688–701 [p. 689]. doi:10.1037/h0037350.
  6. Angrist J.,Imbens G.,Rubin D. (1996) Identification of Causal effects Using Instrumental Variables.J. Amer. Statist. Assoc.91.434:(444–455)
  7. Morgan S.,Winship C. (2007) Counterfactuals and Causal Inference: Methods and Principles for Social Research.


编者推荐

书籍推荐

生成缩略图出错:无法找到文件
《Causal Inference: What If》封面

《Causal Inference: What If》

作者:Miguel A. Hernán, James M. Robins

2020年末,由哈佛大学公共卫生学院的 Miguel Hernan 与 Jamie Robins 教授合作完成的因果推断领域的新书 Causal Inference: What If,更是详细全面地阐述了因果推断领域的基本概念与背后的理论基础。


课程推荐

两套因果框架深度剖析:潜在结果模型与结构因果模型

该课程由英国剑桥大学机器学习组博士生陆超超讲授,他将从以下几个方面跟大家展开深度的讨论:

  1. 讲述因果推断的两大框架:潜在结果模型和结构因果模型,讨论他们各自的优缺点以及他们之间的联系,详细介绍他们之间的转化规律。
  2. 与大家一起深入探讨因果推断中最基本的概念、定理以及它们产生的缘由,了解每个概念背后的故事,从而建立起对因果更全面的感知。
  3. 分享它们在不同学科中的具体的应用,包括社会科学、经济学、医学、机器学习等,借助这些应用,进一步启发大家用因果科学思维来思考和解决问题。


如何用信息视角理解现代因果模型框架?

本课程为大家串讲了因果推理相关论文,首先着眼于因果研究的源头,简单介绍哲学中的因果思考;其次重点是用因果之梯(它的信息视角---回答因果问题需要相应的信息)和一个例子,来理解现代因果建模框架;最后梳理因果推理和 AI 领域的融合,以及Causal AI 的强人工智能之路。


因果科学读书会第三季:因果+X

在经历了第一季的前沿探索,第二季因果基础知识和实践之后(前两季学习路径参考文章: 构建因果引擎,创新科研范式——因果科学的学习路线图 ),该如何利用因果工具成为了社区成员的最关心的问题。

第三季的因果社区读书会:因果+X,将主要结合因果推断的潜在结果(Potential Outcomes)框架展开讨论,并尝试在不同领域尝试建立与因果推断引擎的对应关系。让因果真正地应用于我们的科学研究中,不管你是来自计算机、数理统计领域,还是社会学、经济学、管理学领域,还是医学、生物学领域,我们希望共同探究出因果研究的范式,真正解决因果的多学科应用问题,乃至解决工业界的问题。



相关文章


相关路径

  • 因果科学与Casual AI读书会必读参考文献列表,这个是根据读书会中解读的论文,做的一个分类和筛选,方便大家梳理整个框架和内容。
  • 因果推断方法概述,这个路径对因果在哲学方面的探讨,以及因果在机器学习方面应用的分析。
  • 因果科学和 Causal AI入门路径,这条路径解释了因果科学是什么以及它的发展脉络。此路径将分为三个部分进行展开,第一部分是因果科学的基本定义及其哲学基础,第二部分是统计领域中的因果推断,第三个部分是机器学习中的因果(Causal AI)。
  • 复杂网络动力学系统重构文献,这个路径是张江老师梳理了网络动力学重构问题,描述了动力学建模的常用方法和模型,并介绍了一些经典且重要的论文,这也是复杂系统自动建模读书会的主要论文来源,所以大部分都有解读视频。
  • 因果纠缠集智年会——因果推荐系统分论坛关于因果推荐系统的参考文献和主要嘉宾介绍,来源是集智俱乐部的因果纠缠年会。



本中文词条由Chancychen翻译,思无涯咿呀咿呀审校,薄荷编辑,欢迎在讨论页面留言。


本词条内容源自wikipedia及公开资料,遵守 CC3.0协议。