更改

跳到导航 跳到搜索
删除3字节 、 2024年9月6日 (星期五)
第120行: 第120行:  
[[文件:NIS+odd.png|替代=|无框|800x800像素]]
 
[[文件:NIS+odd.png|替代=|无框|800x800像素]]
   −
为了最大化式{{EquationNote|1}}中定义的EI,作者将NIS的框架扩展为NIS+。在此框架中,输入可观测的数据(如图(a),可以是轨迹、图像序列、时间序列),输出是因果涌现的程度、宏观动力学、涌现斑图以及粗粒化策略(如图(c))。在NIS+中(如图(b)),我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其中,使用<math>y_{t+1}=\phi(x_{t+1})</math>来预测<math>y_{t}</math>,从而保证[[互信息]]最大化。这里,[math]\phi[/math]是反向动力学学习器神经网络。最后,利用样本重加权技术来解决均匀分布干预的挑战,从而优化EI。所有这些技术组成了增强版神经信息压缩机(NIS+)<ref>Mingzhe Yang, Zhipeng Wang, Kaiwei Liu, et al. Finding emergence in data by maximizing effective information. National Science Review, 2024, nwae279</ref>。
+
为了最大化式{{EquationNote|1}}中定义的EI,作者将NIS的框架扩展为NIS+。在此框架中,输入可观测的数据(如图(a),可以是轨迹、图像序列、时间序列),输出是因果涌现的程度、宏观动力学、涌现斑图以及粗粒化策略(如图(c))。在NIS+中(如图(b)),我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其中,使用<math>y_{t+1}=\phi(x_{t+1})</math>来预测<math>y_{t}</math>,从而保证[[互信息]]最大化。这里,[math]g[/math]是反向动力学学习器神经网络。最后,利用样本重加权技术来解决均匀分布干预的挑战,从而优化EI。所有这些技术组成了增强版神经信息压缩机(NIS+)<ref>Mingzhe Yang, Zhipeng Wang, Kaiwei Liu, et al. Finding emergence in data by maximizing effective information. National Science Review, 2024, nwae279</ref>。
    
== NIS+ 框架有效性的验证(数值实验) ==
 
== NIS+ 框架有效性的验证(数值实验) ==
640

个编辑

导航菜单