更改

跳到导航 跳到搜索
添加138字节 、 2024年8月1日 (星期四)
第30行: 第30行:  
当<math>\Psi_{t, t+1}(V) > 0 </math>,系统发生[[因果涌现]]。但当<math>\mathrm{\Psi}<0 </math>,我们不能确定系统是否发生[[因果涌现]]。
 
当<math>\Psi_{t, t+1}(V) > 0 </math>,系统发生[[因果涌现]]。但当<math>\mathrm{\Psi}<0 </math>,我们不能确定系统是否发生[[因果涌现]]。
   −
需要指出的是,Hoel的方法基于Judea Pearl因果,而此方法是基于格兰杰因果,利用机器学习框架<ref>Kaplanis Christos, Mediano Pedro, Rosas Fernando. Learning Causally Emergent Representations''. NeurIPS 2023 workshop: Information-Theoretic Principles in Cognitive Systems''</ref>,计算互信息的组合,没有引入do干预。
+
需要指出的是,Hoel的定义和识别方法基于Judea Pearl因果,而此方法是基于格兰杰因果,利用机器学习框架<ref>Kaplanis Christos, Mediano Pedro, Rosas Fernando. Learning Causally Emergent Representations''. NeurIPS 2023 workshop: Information-Theoretic Principles in Cognitive Systems''</ref>,计算互信息的组合,没有引入do干预。
    
该方法因为是格兰杰因果,所以计算比较方便,不需要找到底层的动力学机制。且对系统的动力学没有马尔可夫性的假设和要求。但是也存在一些缺点:
 
该方法因为是格兰杰因果,所以计算比较方便,不需要找到底层的动力学机制。且对系统的动力学没有马尔可夫性的假设和要求。但是也存在一些缺点:
第36行: 第36行:  
1)该方法只是基于互信息计算,且得到的仅仅是发生因果涌现的近似的充分条件;
 
1)该方法只是基于互信息计算,且得到的仅仅是发生因果涌现的近似的充分条件;
   −
2)该方法需要预设宏观变量,且对宏观变量的不同选择会对结果造成显著影响;
+
2)该方法需要手动给定粗粒化策略和宏观变量,而不同的选择会对结果造成显著影响;
    
3)高维系统中,<math>\Psi </math>作为近似条件,误差非常大,很容易得到负值,从而无法判断是否有因果涌现发生。
 
3)高维系统中,<math>\Psi </math>作为近似条件,误差非常大,很容易得到负值,从而无法判断是否有因果涌现发生。
   −
Kaplanis等人基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用神经网络来学习将微观输入粗粒化成宏观输出,同时使用两个神经网络来分别学习互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。  ''<u>(暂定)</u>''
+
为了能够自动找到最佳的粗粒化策略,这套理论框架也发展出了相应的机器学习方法。Kaplanis等人基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用神经网络来学习将微观输入粗粒化成宏观输出,同时使用两个神经网络来分别学习互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。  ''<u>(暂定)</u>''
    
=== NIS系列 ===
 
=== NIS系列 ===
272

个编辑

导航菜单