更改

删除27字节 、 2024年9月4日 (星期三)
第30行: 第30行:  
当<math>\Psi_{t, t+1}(V) > 0 </math>,系统发生[[因果涌现]]。但当<math>\mathrm{\Psi}<0 </math>,我们不能确定系统是否发生[[因果涌现]]。
 
当<math>\Psi_{t, t+1}(V) > 0 </math>,系统发生[[因果涌现]]。但当<math>\mathrm{\Psi}<0 </math>,我们不能确定系统是否发生[[因果涌现]]。
   −
需要指出的是,Hoel的定义和识别方法基于Judea Pearl因果,而此方法是基于[[格兰杰因果关系|格兰杰因果]],利用机器学习框架<ref>Kaplanis Christos, Mediano Pedro, Rosas Fernando. Learning Causally Emergent Representations''. NeurIPS 2023 workshop: Information-Theoretic Principles in Cognitive Systems''</ref>,计算[[互信息]]的组合,没有引入do干预。
+
需要指出的是,Hoel的定义和识别方法基于Judea Pearl因果,而此方法是基于[[格兰杰因果关系|格兰杰因果]],计算[[互信息]]的组合,没有引入do干预。
    
该方法因为是[[格兰杰因果关系|格兰杰因果]],所以计算比较方便,不需要找到底层的动力学机制。且对系统的动力学没有马尔可夫性的假设和要求。但是也存在一些缺点:
 
该方法因为是[[格兰杰因果关系|格兰杰因果]],所以计算比较方便,不需要找到底层的动力学机制。且对系统的动力学没有马尔可夫性的假设和要求。但是也存在一些缺点:
第40行: 第40行:  
3)高维系统中,<math>\Psi </math>作为近似条件,误差非常大,很容易得到负值,从而无法判断是否有因果涌现发生。
 
3)高维系统中,<math>\Psi </math>作为近似条件,误差非常大,很容易得到负值,从而无法判断是否有因果涌现发生。
   −
为了能够自动找到最佳的粗粒化策略,这套理论框架也发展出了相应的机器学习方法。Kaplanis等人基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用神经网络来学习将微观输入粗粒化成宏观输出,同时使用两个神经网络来分别学习[[互信息]]的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。
+
为了能够自动找到最佳的粗粒化策略,这套理论框架也发展出了相应的机器学习方法<ref>Kaplanis Christos, Mediano Pedro, Rosas Fernando. Learning Causally Emergent Representations''. NeurIPS 2023 workshop: Information-Theoretic Principles in Cognitive Systems''</ref>。Kaplanis等人基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用神经网络来学习将微观输入粗粒化成宏观输出,同时使用两个神经网络来分别学习[[互信息]]的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。
    
=== NIS系列 ===
 
=== NIS系列 ===
272

个编辑