更改

跳到导航 跳到搜索
添加1,097字节 、 2024年9月9日 (星期一)
无编辑摘要
第140行: 第140行:  
[[文件:NIS+odd.png|替代=|无框|800x800像素]]
 
[[文件:NIS+odd.png|替代=|无框|800x800像素]]
   −
为了最大化式{{EquationNote|1}}中定义的[[有效信息]],作者将NIS的框架扩展为NIS+。在此框架中,输入可观测的数据(如图(a),可以是轨迹、图像序列、时间序列),输出是因果涌现的程度、宏观动力学、涌现斑图以及粗粒化策略(如图(c))。在NIS+中(如图(b)),作者首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其中,通过学习一个反向宏观动力学[math]g[/math],也就是通过<math>y_{t+1}=\phi(x_{t+1})</math>来预测<math>y_{t}</math>,该框架保证了[[互信息]]的最大化。最后,该框架提出利用样本重加权技术来解决均匀分布干预的挑战,从而保证了优化的目标函数是有效信息。所有这些技术组成了增强版神经信息压缩机(NIS+)<ref>Mingzhe Yang, Zhipeng Wang, Kaiwei Liu, et al. Finding emergence in data by maximizing effective information. National Science Review, 2024, nwae279</ref>。
+
[[文件:NIS+odd.png|替代=|无框|800x800像素]]
 +
{|
 +
|+在此框架中,输入可观测的数据(如图(a),可以是轨迹、图像序列、时间序列),输出是因果涌现的程度、宏观动力学、涌现斑图以及粗粒化策略(如图(c))。在NIS+中(如图(b)),作者首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其中,通过学习一个反向宏观动力学[math]g[/math],也就是通过<math>y_{t+1}=\phi(x_{t+1})</math>来预测<math>y_{t}</math>,该框架保证了[[互信息]]的最大化。最后,该框架提出利用样本重加权技术来解决均匀分布干预的挑战,从而保证了优化的目标函数是有效信息。所有这些技术组成了增强版神经信息压缩机(NIS+)<ref name=":12" />。
 +
|[[文件:NIS+odd.png|替代=|无框|800x800像素]]                                                                                                                                                                                                       
 +
|}
 +
 
 +
为了最大化式{{EquationNote|1}}中定义的[[有效信息]],作者将NIS的框架扩展为NIS+。在此框架中,输入可观测的数据(如图(a),可以是轨迹、图像序列、时间序列),输出是因果涌现的程度、宏观动力学、涌现斑图以及粗粒化策略(如图(c))。在NIS+中(如图(b)),作者首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其中,通过学习一个反向宏观动力学[math]g[/math],也就是通过<math>y_{t+1}=\phi(x_{t+1})</math>来预测<math>y_{t}</math>,该框架保证了[[互信息]]的最大化。最后,该框架提出利用样本重加权技术来解决均匀分布干预的挑战,从而保证了优化的目标函数是有效信息。所有这些技术组成了增强版神经信息压缩机(NIS+)<ref name=":12">Mingzhe Yang, Zhipeng Wang, Kaiwei Liu, et al. Finding emergence in data by maximizing effective information. National Science Review, 2024, nwae279</ref>。
 
{| class="wikitable"
 
{| class="wikitable"
 
!
 
!
259

个编辑

导航菜单