更改

跳到导航 跳到搜索
删除10字节 、 2024年8月23日 (星期五)
第263行: 第263行:  
Kaplanis等人<ref name=":2" />基于[[表示机器学习]](Representation learning)的方法学习到宏观态<math>V</math>变量,学习的目标是最大化<math>\mathrm{\Psi} </math>。具体的,作者们使用神经网络<math>f_{\theta}</math>来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>的表示函数,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>等互信息的计算,最后该方法通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。该神经网络系统的架构图如下图所示。
 
Kaplanis等人<ref name=":2" />基于[[表示机器学习]](Representation learning)的方法学习到宏观态<math>V</math>变量,学习的目标是最大化<math>\mathrm{\Psi} </math>。具体的,作者们使用神经网络<math>f_{\theta}</math>来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>的表示函数,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>等互信息的计算,最后该方法通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。该神经网络系统的架构图如下图所示。
   −
[[文件:学习因果涌现表征的架构.png|居中|600x600像素|学习因果涌现表征的架构|缩略图]]
+
[[文件:学习因果涌现表征的架构.png|居左|600x600像素|学习因果涌现表征的架构]]
    
结果表明,在简单的例子中,该系统能够正确地判断出因果涌现的发生。
 
结果表明,在简单的例子中,该系统能够正确地判断出因果涌现的发生。
2,464

个编辑

导航菜单