迁移学习是因果表征学习直接的应用之一。根据Minimal Change Principle [Huang et al., 2020],在正确的因果表征下,不同domain之间的分布变化的通常可由在少数因果(隐)变量之间的causal edge/node上的干预来解释。因此,如果因果隐变量和它们之间的关系能被识别,迁移学习就只用发生在极少数的模型参数上。因果表征学习大大减少了迁移学习需要的数据量。这也是为什么人类在新环境在灵活变化、适应的根本原因。在[Zhang et al., 2020]中,我们首先使用上章节介绍的,在数据分布发生变化的情况下因果发现方法CD-NOD [Huang et. al., 2020],寻找(X,Y)之间的因果图。如右图所示,在找出正确的causal factorization后,我们可对图里的每组独立因果模块,比如P(X3 | X2, Y, 𝛉3),单独建模,通过因果变化因子𝛉捕捉不同source domain之间的分布区别。在做迁移时,我们只需使用少量target domain数据,推断或学习出发生变化的causal edge以及该edge上的变化因子,就可实现有效的迁移学习。当观测到的数据(比如图像像素)不是因果相关的变量而是由因果隐变量生成是,我们可使用上节探讨的iMSDA [Kong et. al., 2022],通过因果表征学习,识别出解释domain之间变化的因果隐变量,并使用这些隐变量对图像数据做translation,将其投射到同一domain进行训练,从而实现图像迁移学习。 | 迁移学习是因果表征学习直接的应用之一。根据Minimal Change Principle [Huang et al., 2020],在正确的因果表征下,不同domain之间的分布变化的通常可由在少数因果(隐)变量之间的causal edge/node上的干预来解释。因此,如果因果隐变量和它们之间的关系能被识别,迁移学习就只用发生在极少数的模型参数上。因果表征学习大大减少了迁移学习需要的数据量。这也是为什么人类在新环境在灵活变化、适应的根本原因。在[Zhang et al., 2020]中,我们首先使用上章节介绍的,在数据分布发生变化的情况下因果发现方法CD-NOD [Huang et. al., 2020],寻找(X,Y)之间的因果图。如右图所示,在找出正确的causal factorization后,我们可对图里的每组独立因果模块,比如P(X3 | X2, Y, 𝛉3),单独建模,通过因果变化因子𝛉捕捉不同source domain之间的分布区别。在做迁移时,我们只需使用少量target domain数据,推断或学习出发生变化的causal edge以及该edge上的变化因子,就可实现有效的迁移学习。当观测到的数据(比如图像像素)不是因果相关的变量而是由因果隐变量生成是,我们可使用上节探讨的iMSDA [Kong et. al., 2022],通过因果表征学习,识别出解释domain之间变化的因果隐变量,并使用这些隐变量对图像数据做translation,将其投射到同一domain进行训练,从而实现图像迁移学习。 |