更改

跳到导航 跳到搜索
删除2,339字节 、 2024年8月4日 (星期日)
第79行: 第79行:  
1)当[[特有信息]]<math>Un(V_t;X_{t+1}| X_t^1,\ldots,X_t^n\ )>0 </math>,表示当前时刻的宏观态<math>V_t </math>能超过当前时刻的微观态<math>X_t </math>给下一时刻的整体系统<math>X_{t+1} </math>再多提供一些信息,存在因果涌现;
 
1)当[[特有信息]]<math>Un(V_t;X_{t+1}| X_t^1,\ldots,X_t^n\ )>0 </math>,表示当前时刻的宏观态<math>V_t </math>能超过当前时刻的微观态<math>X_t </math>给下一时刻的整体系统<math>X_{t+1} </math>再多提供一些信息,存在因果涌现;
   −
2)绕开了选择特定的宏观态<math>V_t </math>,仅仅基于系统当前时刻的微观态<math>X_t </math>和下一时刻的微观态<math>X_{t+1} </math>之间的[[协同信息]]定义因果涌现,当协同信息<math>Syn(X_t^1,…,X_t^n;X_{t+1}^1,…,X_{t+1}^n )>0 </math>,系统发生了因果涌现。其中<math>Un(V_t;X_{t+1}| X_t\ )\le Syn(X_t;X_{t+1}\ ) </math>衡成立。
+
2)绕开了选择特定的宏观态<math>V_t </math>,仅仅基于系统当前时刻的微观态<math>X_t </math>和下一时刻的微观态<math>X_{t+1} </math>之间的[[协同信息]]定义因果涌现,当协同信息<math>Syn(X_t^1,…,X_t^n;X_{t+1}^1,…,X_{t+1}^n )>0 </math>,系统发生了因果涌现。其中<math>Un(V_t;X_{t+1}| X_t\ ) ≥  Syn(X_t;X_{t+1}\ ) </math>衡成立。
   −
值得注意的是,对于方法一判断因果涌现的发生需要依赖宏观态<math>V_t </math>的选择,然而<math>V_t </math>的选择又是很困难的,因此该方法不可行。一种自然的想法就是使用第二种方法借助协同信息来判断因果涌现的发生,但是由于冗余信息存在计算的问题,而协同信息的计算又依赖[[冗余信息]]。因此,第二种方法基于协同信息的计算往往也是不可行的。总之,这两种因果涌现的定量刻画方法都存在一些缺点,因此,更加合理的量化方法有待提出。
+
值得注意的是,对于方法一判断因果涌现的发生需要依赖宏观态<math>V_t </math>的选择,其中方法一是方法二的下界,所以,如果宏观变量(V<sub>t</sub>)所持有的关于微观变量特有信息大于0,则出现因果涌现,然而<math>V_t </math>的选择又是很困难的,因此该方法不可行。一种自然的想法就是使用第二种方法借助协同信息来判断因果涌现的发生,但是由于冗余信息存在计算的问题,而协同信息的计算又依赖[[冗余信息]]。因此,第二种方法基于协同信息的计算往往也是不可行的。总之,这两种因果涌现的定量刻画方法都存在一些缺点,因此,更加合理的量化方法有待提出。
    
[[文件:因果解耦以及向下因果例子1.png|缩略图|500x500像素|居中|因果解耦以及向下因果例子]]
 
[[文件:因果解耦以及向下因果例子1.png|缩略图|500x500像素|居中|因果解耦以及向下因果例子]]
 
文中作者举了一个前后两个时间序列数据的奇偶是否相同的例子来说明什么时候发生[[因果解耦]]、[[向下因果]]以及[[因果涌现]]。当第二个判断条件中只有第一项成立时是用来判断向下因果条件,只有第二项成立时是用来判断因果解耦条件,两种同时成立时用来判断因果涌现条件。这里,<math>X_t=(X_t^1,…,X_t^n )\in \left\{0,1\right\}^n </math>,宏观态是微观输入的异或结果。
 
文中作者举了一个前后两个时间序列数据的奇偶是否相同的例子来说明什么时候发生[[因果解耦]]、[[向下因果]]以及[[因果涌现]]。当第二个判断条件中只有第一项成立时是用来判断向下因果条件,只有第二项成立时是用来判断因果解耦条件,两种同时成立时用来判断因果涌现条件。这里,<math>X_t=(X_t^1,…,X_t^n )\in \left\{0,1\right\}^n </math>,宏观态是微观输入的异或结果。
   −
  −
在给定宏观状态<math>V </math>的情况下,<math>Syn(X_{t};X_{t+1}) ≥ Un(V_t;X_{t+1}|X_t) </math>。所以,如果宏观变量(V<sub>t</sub>)所持有的关于微观变量独特信息大于0,则出现因果涌现。
  −
  −
<math>Syn(X_{t};X_{t+1}) ≥ Un(V_t;X_{t+1}|X_t) > 0 </math>
      
通过互信息的相关计算公式,可以得知:
 
通过互信息的相关计算公式,可以得知:
第101行: 第97行:  
当<math>\Psi_{t, t+1}(V) > 0 </math>,系统发生因果涌现。但当<math>\mathrm{\Psi}<0 </math>,我们不能确定系统是否发生因果涌现。
 
当<math>\Psi_{t, t+1}(V) > 0 </math>,系统发生因果涌现。但当<math>\mathrm{\Psi}<0 </math>,我们不能确定系统是否发生因果涌现。
 
<math>\Psi_{t, t+1}(V):=I\left(V_t ; V_{t+1}\right)-\sum_j I\left(X_t^j ; V_{t+1}\right) </math>
 
<math>\Psi_{t, t+1}(V):=I\left(V_t ; V_{t+1}\right)-\sum_j I\left(X_t^j ; V_{t+1}\right) </math>
  −
该方法避开讨论粗粒化策略,但是也存在很多缺点:
  −
  −
1)该方法只是基于互信息计算没有考虑因果,且得到的仅仅是发生因果涌现的近似的充分条件;
  −
  −
2)该方法需要预设宏观变量,且对宏观变量的不同选择会对结果造成显著影响;
  −
  −
3)当系统具有大量冗余信息或具有许多变量时,该方法的计算复杂度仍然很高。
  −
  −
Kaplanis等人基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用<math>f_{\theta}</math>神经网络来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>两者互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。  ''<u>(暂定)</u>''
  −
  −
  −
机器学习经过训练学习得到的很大程度上是变量之间的相关关系,相关关系的来源可以分成三种:
  −
  −
1)因果关系(Causation):当且仅当T发生改变时,Y发生改变。比如在夏天的时候,冰淇淋的销量会上升。
  −
  −
2)混杂因素(Confounding):X导致T和Y都上升,但是模型没有学到背后的X,只学出了T的上升导致Y上升,是一种虚假的相关关系。比如当人的年龄增加,很多人会吸烟和发福,而模型可能学出了是因为人吸烟,所以人发福。当给模型输入一组年龄一样,但是吸烟情况不一样的数据时,模型的有效性变会下降。
  −
  −
3)样本选择偏差(Sample Selection Bias):当考虑了其他变量后,原本看似有相关性的变量可能实际上并无关联,是一种虚假的相关关系。在上面的狗识别的例子中,机器学习学到的可能是根据草地和狗鼻子这两个因素来判断是不是狗,但是有因果关系的是狗鼻子,草地只是由于样本的分布不均匀,这就导致了模型不能有效识别出在水里、沙漠里的狗。简单来说,草地和标签之间是强相关、弱因果,狗鼻子和标签之间是强相关、强因果。
      
====基于可逆性的因果涌现理论====
 
====基于可逆性的因果涌现理论====
1,884

个编辑

导航菜单