更改

跳到导航 跳到搜索
大小无更改 、 2024年8月3日 (星期六)
无编辑摘要
第66行: 第66行:     
====Rosas的因果涌现理论====
 
====Rosas的因果涌现理论====
Hoel提出的基于粗粒化的方法来量化系统中的因果涌现需要预先提供系统的状态转移矩阵以及粗粒化策略,然而现实情况是,往往只能获得系统的观测数据。为了克服这两个困难,Rosas等<ref name=":5" />从信息理论视角出发,提出一种基于信息分解方法来定义系统中的因果涌现,这里发生因果涌现有两种可能性:[[因果解耦]](Causal Decoupling)和[[向下因果]](Downward Causation),其中因果解耦表示宏观态对其他宏观态的因果效应,向下因果表示宏观态对于微观元素的因果效应。具体地,定义微观状态输入为<math>X_t\ (X_t^1,X_t^2,…,X_t^n ) </math>
+
Hoel提出的基于粗粒化的方法来量化系统中的因果涌现需要预先提供系统的状态转移矩阵以及粗粒化策略,然而现实情况是,往往只能获得系统的观测数据。为了克服这两个困难,Rosas等<ref name=":5" />从信息理论视角出发,提出一种基于信息分解方法来定义系统中的因果涌现,这里发生因果涌现有两种可能性:[[因果解耦]](Causal Decoupling)和[[向下因果]](Downward Causation),其中因果解耦表示宏观态对其他宏观态的因果效应,向下因果表示宏观态对于微观元素的因果效应。具体地,定义微观状态输入为<math>X_t\ (X_t^1,X_t^2,…,X_t^n ) </math>,<math>V_t </math>表示宏观状态是<math>X_t </math>的随附特征,<math>X_{t+1} </math>和<math>V_{t+1} </math>分别表示下一时刻的微观和宏观状态。
 
+
[[文件:因果解耦与向下因果-new.png|缩略图|替代=|居中|因果解耦与向下因果]]
,<math>V_t </math>表示宏观状态是<math>X_t </math>的随附特征,<math>X_{t+1} </math>和<math>V_{t+1} </math>分别表示下一时刻的微观和宏观状态。
  −
 
  −
[[文件:因果解耦与向下因果.png|缩略图|替代=|居中|因果解耦与向下因果]]
      
该方法建立在Williams和Beer等<ref>Williams P L, Beer R D. Nonnegative decomposition of multivariate information[J]. arXiv preprint arXiv:10042515, 2010.</ref>提出的多元信息非负分解的基础上,Beer使用[[偏信息分解]](PID)将微观态<math>X(X^1,X^2 ) </math>与宏观态<math>V </math>之间的[[互信息]]分解为四个部分,计算公式如下所示:
 
该方法建立在Williams和Beer等<ref>Williams P L, Beer R D. Nonnegative decomposition of multivariate information[J]. arXiv preprint arXiv:10042515, 2010.</ref>提出的多元信息非负分解的基础上,Beer使用[[偏信息分解]](PID)将微观态<math>X(X^1,X^2 ) </math>与宏观态<math>V </math>之间的[[互信息]]分解为四个部分,计算公式如下所示:
第286行: 第283行:  
[[文件:大脑工作的三阶段.png|居中|缩略图|大脑认知过程框架]]
 
[[文件:大脑工作的三阶段.png|居中|缩略图|大脑认知过程框架]]
   −
===在人工智能系统上的应用 ===
+
===在人工智能系统上的应用===
 
====因果表示学习====
 
====因果表示学习====
 
因果表示学习是人工智能中的一个新兴领域,它试图将机器学习中的两个重要领域:表示学习和因果推断结合起来。尝试结合两个子领域的优势,自动提取数据背后的重要特征和因果关系<ref>B. Sch ̈olkopf, F. Locatello, S. Bauer, N. R. Ke, N. Kalchbrenner, A. Goyal, Y. Bengio, Toward causal representation learning, Proceedings of the IEEE 109 (5) (2021) 612–634.</ref>。基于粗粒化的因果涌现识别可以等价于一种因果表示学习任务。从数据中识别因果关系的涌现,等价于学习数据背后的潜在因果关系。具体来说,宏观状态可以看成因果变量,动力学学习器类比因果机制,粗粒化策略可以看作是一个从原始数据到因果表示的编码过程,有效信息可以理解为对机制的因果效应强度的衡量。由于这两者存在很多相似之处,使得两个领域的技术和概念可以相互学习。例如,因果表征学习技术可以应用于识别因果涌现,反过来,学习到的抽象因果表征可以被解释为一种宏观状态,从而增加因果表征学习的可解释性。但是两者也存在一些差异,主要包括两点:1)因果表示学习假设其背后存在一个真实的因果机制,数据是由这个因果机制产生的,然而宏观层面涌现出的状态和动力学之间可能并不存在“真正的因果关系”;2)因果涌现中的粗粒化后的宏观状态是一种低维的描述,然而因果表示学习中没有这个要求。但是,从认识论的视角看,两者并不存在差异,因为两者所做的都是从观察数据中提取有效信息,从而获得具有因果效应更强的表征。
 
因果表示学习是人工智能中的一个新兴领域,它试图将机器学习中的两个重要领域:表示学习和因果推断结合起来。尝试结合两个子领域的优势,自动提取数据背后的重要特征和因果关系<ref>B. Sch ̈olkopf, F. Locatello, S. Bauer, N. R. Ke, N. Kalchbrenner, A. Goyal, Y. Bengio, Toward causal representation learning, Proceedings of the IEEE 109 (5) (2021) 612–634.</ref>。基于粗粒化的因果涌现识别可以等价于一种因果表示学习任务。从数据中识别因果关系的涌现,等价于学习数据背后的潜在因果关系。具体来说,宏观状态可以看成因果变量,动力学学习器类比因果机制,粗粒化策略可以看作是一个从原始数据到因果表示的编码过程,有效信息可以理解为对机制的因果效应强度的衡量。由于这两者存在很多相似之处,使得两个领域的技术和概念可以相互学习。例如,因果表征学习技术可以应用于识别因果涌现,反过来,学习到的抽象因果表征可以被解释为一种宏观状态,从而增加因果表征学习的可解释性。但是两者也存在一些差异,主要包括两点:1)因果表示学习假设其背后存在一个真实的因果机制,数据是由这个因果机制产生的,然而宏观层面涌现出的状态和动力学之间可能并不存在“真正的因果关系”;2)因果涌现中的粗粒化后的宏观状态是一种低维的描述,然而因果表示学习中没有这个要求。但是,从认识论的视角看,两者并不存在差异,因为两者所做的都是从观察数据中提取有效信息,从而获得具有因果效应更强的表征。
68

个编辑

导航菜单