更改

添加33字节 、 2024年7月24日 (星期三)
第17行: 第17行:  
下面介绍两种因果涌现的识别方法:①基于[[互信息]]的近似方法、②[[NIS|神经信息压缩器]]方法系列(Neural Information Squeezer,简称NIS)。
 
下面介绍两种因果涌现的识别方法:①基于[[互信息]]的近似方法、②[[NIS|神经信息压缩器]]方法系列(Neural Information Squeezer,简称NIS)。
   −
=== 基于互信息的近似方法 ===
+
=== 基于信息分解的因果涌现识别 ===
    
Rosas等提出了判定因果涌现发生的充分条件,且基于[[互信息]]提出三个新指标,<math>\mathrm{\Psi} </math> 、<math>\mathrm{\Delta} </math> 、<math>\mathrm{\Gamma} </math>。这三个指标用于识别系统中的因果涌现,具体计算公式如下:<u>''(对三个指标的介绍)''</u>
 
Rosas等提出了判定因果涌现发生的充分条件,且基于[[互信息]]提出三个新指标,<math>\mathrm{\Psi} </math> 、<math>\mathrm{\Delta} </math> 、<math>\mathrm{\Gamma} </math>。这三个指标用于识别系统中的因果涌现,具体计算公式如下:<u>''(对三个指标的介绍)''</u>
第37行: 第37行:       −
Kaplanis等人<ref name=":2">Zhang J, Tao R, Yuan B. Dynamical Reversibility and A New Theory of Causal Emergence. arXiv preprint arXiv:2402.15054. 2024 Feb 23.</ref>基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用<math>f_{\theta}</math>神经网络来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>两者互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。  ''<u>(详细介绍?)</u>''
+
Kaplanis等人<ref name=":2">Zhang J, Tao R, Yuan B. Dynamical Reversibility and A New Theory of Causal Emergence. arXiv preprint arXiv:2402.15054. 2024 Feb 23.</ref>基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用<math>f_{\theta}</math>神经网络来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>两者互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。  ''<u>(暂定)(详细介绍?)(加图)</u>''
    
=== NIS系列 ===
 
=== NIS系列 ===
196

个编辑