更改

跳到导航 跳到搜索
添加139字节 、 2024年8月31日 (星期六)
第463行: 第463行:     
====因果表示学习====
 
====因果表示学习====
[[因果表示学习]]是人工智能中的一个新兴领域,它试图将机器学习中的两个重要领域:[[表示学习]]和[[因果推断]]结合起来,尝试结合各自的优势,自动提取数据背后的重要特征和因果关系<ref>B. Sch ̈olkopf, F. Locatello, S. Bauer, N. R. Ke, N. Kalchbrenner, A. Goyal, Y. Bengio, Toward causal representation learning, Proceedings of the IEEE 109 (5) (2021) 612–634.</ref>。基于有效信息的因果涌现识别可以等价于一种因果表示学习任务。从数据中识别因果关系的涌现,等价于学习数据背后的潜在因果关系。具体来说,我们可以把宏观状态看成因果变量,宏观动力学学习器类比为因果机制,粗粒化策略可以看作是一个从原始数据到因果变量的编码过程,有效信息可以理解为对机制的因果效应强度的衡量。由于这两者存在很多相似之处,这就使得两个领域的技术和概念可以相互借鉴。例如,[[因果表示学习]]技术可以应用于识别因果涌现,反过来,学习到的抽象因果表征可以被解释为一种宏观状态,从而增强因果表征学习的可解释性。但是两者也存在显著差异,主要包括两点:1)因果表示学习假设其背后存在一个真实的[[因果机制]],数据是由这个因果机制产生的,然而宏观层面涌现出的状态和动力学之间可能并不存在“真正的因果关系”;2)因果涌现中的粗粒化后的宏观状态是一种低维的描述,然而因果表示学习中并没有这个要求。从认识论的视角看,两者并不存在差异,因为两者所做的都是从观察数据中提取有效信息,从而获得具有因果效应更强的表征。
+
[[因果表示学习]]是人工智能中的一个新兴领域,它试图将机器学习中的两个重要领域:[[表示学习]]和[[因果推断]]结合起来,尝试结合各自的优势,自动提取数据背后的重要特征和因果关系<ref>B. Sch ̈olkopf, F. Locatello, S. Bauer, N. R. Ke, N. Kalchbrenner, A. Goyal, Y. Bengio, Toward causal representation learning, Proceedings of the IEEE 109 (5) (2021) 612–634.</ref>。基于有效信息的因果涌现识别可以等价于一种因果表示学习任务。从数据中识别因果关系的涌现,等价于学习数据背后的潜在因果关系与因果机制。具体来说,我们可以把宏观状态看成因果变量,宏观动力学类比为因果机制,粗粒化策略可以看作是一个从原始数据到因果变量的编码过程或表示(Representation),有效信息可以理解为对机制的因果效应强度的衡量。
 +
 
 +
由于这两者存在很多相似之处,这就使得两个领域的技术和概念可以相互借鉴。例如,[[因果表示学习]]技术可以应用于[[因果涌现识别]],反过来,学习到的抽象因果表征可以被解释为一种宏观状态,从而增强因果表示学习的可解释性。但是两者也存在显著差异,主要包括两点:1)因果表示学习假设其背后存在一个真实的[[因果机制]],数据是由这个因果机制产生的,然而宏观层面涌现出的状态和动力学之间可能并不存在“真正的因果关系”;2)因果涌现中的粗粒化后的宏观状态是一种低维的描述,然而因果表示学习中并没有这个要求。从认识论的视角看,两者并不存在差异,因为两者所做的都是从观察数据中提取有效信息的,从而获得具有因果效应更强的表征。
 +
 
 +
为了更好地对比因果表示学习和因果涌现识别任务,我们列出了下表:
    
{| class="wikitable"
 
{| class="wikitable"
642

个编辑

导航菜单