更改

跳到导航 跳到搜索
添加561字节 、 2024年8月25日 (星期日)
第378行: 第378行:  
[[因果表示学习]]是人工智能中的一个新兴领域,它试图将机器学习中的两个重要领域:[[表示学习]]和[[因果推断]]结合起来,尝试结合各自的优势,自动提取数据背后的重要特征和因果关系<ref>B. Sch ̈olkopf, F. Locatello, S. Bauer, N. R. Ke, N. Kalchbrenner, A. Goyal, Y. Bengio, Toward causal representation learning, Proceedings of the IEEE 109 (5) (2021) 612–634.</ref>。基于有效信息的因果涌现识别可以等价于一种因果表示学习任务。从数据中识别因果关系的涌现,等价于学习数据背后的潜在因果关系。具体来说,我们可以把宏观状态可以看成因果变量,宏观动力学学习器类比为因果机制,粗粒化策略可以看作是一个从原始数据到因果变量的编码过程,有效信息可以理解为对机制的因果效应强度的衡量。由于这两者存在很多相似之处,这就使得两个领域的技术和概念可以相互借鉴。例如,[[因果表示学习]]技术可以应用于识别因果涌现,反过来,学习到的抽象因果表征可以被解释为一种宏观状态,从而增强因果表征学习的可解释性。但是两者也存在显著差异,主要包括两点:1)因果表示学习假设其背后存在一个真实的[[因果机制]],数据是由这个因果机制产生的,然而宏观层面涌现出的状态和动力学之间可能并不存在“真正的因果关系”;2)因果涌现中的粗粒化后的宏观状态是一种低维的描述,然而因果表示学习中并没有这个要求。从认识论的视角看,两者并不存在差异,因为两者所做的都是从观察数据中提取有效信息,从而获得具有因果效应更强的表征。
 
[[因果表示学习]]是人工智能中的一个新兴领域,它试图将机器学习中的两个重要领域:[[表示学习]]和[[因果推断]]结合起来,尝试结合各自的优势,自动提取数据背后的重要特征和因果关系<ref>B. Sch ̈olkopf, F. Locatello, S. Bauer, N. R. Ke, N. Kalchbrenner, A. Goyal, Y. Bengio, Toward causal representation learning, Proceedings of the IEEE 109 (5) (2021) 612–634.</ref>。基于有效信息的因果涌现识别可以等价于一种因果表示学习任务。从数据中识别因果关系的涌现,等价于学习数据背后的潜在因果关系。具体来说,我们可以把宏观状态可以看成因果变量,宏观动力学学习器类比为因果机制,粗粒化策略可以看作是一个从原始数据到因果变量的编码过程,有效信息可以理解为对机制的因果效应强度的衡量。由于这两者存在很多相似之处,这就使得两个领域的技术和概念可以相互借鉴。例如,[[因果表示学习]]技术可以应用于识别因果涌现,反过来,学习到的抽象因果表征可以被解释为一种宏观状态,从而增强因果表征学习的可解释性。但是两者也存在显著差异,主要包括两点:1)因果表示学习假设其背后存在一个真实的[[因果机制]],数据是由这个因果机制产生的,然而宏观层面涌现出的状态和动力学之间可能并不存在“真正的因果关系”;2)因果涌现中的粗粒化后的宏观状态是一种低维的描述,然而因果表示学习中并没有这个要求。从认识论的视角看,两者并不存在差异,因为两者所做的都是从观察数据中提取有效信息,从而获得具有因果效应更强的表征。
   −
比较表格
+
{| class="wikitable"
 +
|+因果涌现识别与因果表示学习的比较
 +
|-
 +
!数据!!隐变量!!因果机制!!数据和隐变量之间的映射!!因果关系优化!!目标
 +
|-
 +
|微观状态的观测(时间序列)||宏观状态||宏观动力学||粗粒化函数||EI最大化||寻找一个有效的粗粒化策略以及具有强因果效应的宏观动力学
 +
|-
 +
|由真实生活中某些因果机制产生的原始数据||因果表征||因果机制||表征||预测损失,解纠缠||寻找原始数据的最优表示,以确保通过表示可以实现独立的因果机制
 +
|}
    
====有效信息在因果机器学习中的应用====
 
====有效信息在因果机器学习中的应用====
1,119

个编辑

导航菜单