更改

跳到导航 跳到搜索
添加134字节 、 2024年10月11日 (星期五)
第310行: 第310行:  
=====基于机器学习的方法=====
 
=====基于机器学习的方法=====
   −
Kaplanis等人<ref name=":2" />基于[[表示机器学习]](Representation learning)的理论方法,用算法通过最大化<math>\mathrm{\Psi} </math>(即公式{{EquationNote|1}})而自发学习到宏观态变量<math>V</math>变量。具体的,作者们使用神经网络<math>f_{\theta}</math>来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>的表示函数,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>等互信息的计算,最后该方法通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化神经网络。该神经网络系统的架构图如下图所示。
+
Kaplanis等人<ref name=":2" />基于[[表示机器学习]](Representation learning)的理论方法,用算法通过最大化<math>\mathrm{\Psi} </math>(即公式{{EquationNote|1}})而自发学习到宏观态变量<math>V</math>变量。具体的,作者们使用神经网络<math>f_{\theta}</math>来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>的表示函数,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>等互信息的计算,最后该方法通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化神经网络。该神经网络系统的架构图如下图a所示。
    
[[文件:学习因果涌现表征的架构.png|居左|600x600像素|学习因果涌现表征的架构]]
 
[[文件:学习因果涌现表征的架构.png|居左|600x600像素|学习因果涌现表征的架构]]
 +
 +
图b展示了一个toy模型实例,微观输入<math>X_t(X_t^1,...,X_t^6) \in {0,1}^6</math>存在6个维度,每个维度存在
    
结果表明,在简单的例子中,该系统能够正确地判断出因果涌现的发生。但是该方法也存在着难以应对复杂多变量情形的问题,这是因为图中的右侧的神经网络数量是正比于宏微观变量对的数量的,因此微观变量数(维度)越多,则神经网络的数量就会成比例增长,这会导致计算复杂度的提升。此外,该方法仅在很少的案例上进行测试,因此尚无法规模化。最后,更主要的是,因为网络计算的是因果涌现的近似指标,且得到的是涌现的充分非必要条件,所以上述近似算法的各种弊端会被此方法继承。
 
结果表明,在简单的例子中,该系统能够正确地判断出因果涌现的发生。但是该方法也存在着难以应对复杂多变量情形的问题,这是因为图中的右侧的神经网络数量是正比于宏微观变量对的数量的,因此微观变量数(维度)越多,则神经网络的数量就会成比例增长,这会导致计算复杂度的提升。此外,该方法仅在很少的案例上进行测试,因此尚无法规模化。最后,更主要的是,因为网络计算的是因果涌现的近似指标,且得到的是涌现的充分非必要条件,所以上述近似算法的各种弊端会被此方法继承。
1,851

个编辑

导航菜单