更改

大小无更改 、 2024年9月4日 (星期三)
第143行: 第143行:  
[[文件:NIS+odd.png|替代=|无框|800x800像素]]
 
[[文件:NIS+odd.png|替代=|无框|800x800像素]]
   −
为了最大化式{{EquationNote|1}}中定义的EI,作者将NIS的框架扩展为NIS+。在NIS+中,我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其次,使用<math>y_{t+1}=\phi(x_{t+1})</math>来预测<math>y_{t}</math>,从而保证[[互信息]]最大化。这里,[math]\phi[/math]是反向动力学学习器神经网络。最后,利用样本重加权技术来解决均匀分布干预的挑战,从而优化EI。所有这些技术组成了增强版神经信息压缩机(NIS+)<ref>Mingzhe Yang, Zhipeng Wang, Kaiwei Liu, et al. Finding emergence in data by maximizing effective information. National Science Review, 2024, nwae279</ref>。在此框架中,输入可观测的数据,输出是因果涌现的程度、宏观动力学、涌现斑图以及粗粒化策略。
+
为了最大化式{{EquationNote|1}}中定义的EI,作者将NIS的框架扩展为NIS+。在NIS+中,我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其中,使用<math>y_{t+1}=\phi(x_{t+1})</math>来预测<math>y_{t}</math>,从而保证[[互信息]]最大化。这里,[math]\phi[/math]是反向动力学学习器神经网络。最后,利用样本重加权技术来解决均匀分布干预的挑战,从而优化EI。所有这些技术组成了增强版神经信息压缩机(NIS+)<ref>Mingzhe Yang, Zhipeng Wang, Kaiwei Liu, et al. Finding emergence in data by maximizing effective information. National Science Review, 2024, nwae279</ref>。在此框架中,输入可观测的数据,输出是因果涌现的程度、宏观动力学、涌现斑图以及粗粒化策略。
    
== 数学推导 ==
 
== 数学推导 ==
269

个编辑