更改

跳到导航 跳到搜索
添加78字节 、 2024年7月8日 (星期一)
第201行: 第201行:  
同时NIS方法与前面提到的G-emergence也有相似之处,例如,NIS同样采用了格兰杰因果的思想:通过预测下一个时间步的微观状态来优化有效的宏观状态。然而,这两个框架之间有几个明显的区别:a)在G-emergence理论中,宏观状态需要人工选择,然后NIS中是通过自动优化粗粒化策略来得到宏观状态;b)NIS使用神经网络来预测未来状态,而G-emergence使用自回归技术来拟合数据。
 
同时NIS方法与前面提到的G-emergence也有相似之处,例如,NIS同样采用了格兰杰因果的思想:通过预测下一个时间步的微观状态来优化有效的宏观状态。然而,这两个框架之间有几个明显的区别:a)在G-emergence理论中,宏观状态需要人工选择,然后NIS中是通过自动优化粗粒化策略来得到宏观状态;b)NIS使用神经网络来预测未来状态,而G-emergence使用自回归技术来拟合数据。
   −
但是该方法存在一些不足,作者将优化过程分为两个阶段,但是没有真正的最大化有效信息。因此,杨等人进一步改进该方法,通过引入反向动力学以及重加权技术借助变分不等式将原始的最大化有效信息转换成最大化其变分下界来直接优化目标函数。目标函数可以被定义为在给定微观预测足够小的情况下最大化宏观动力学的有效信息:
+
但是该方法存在一些不足,作者将优化过程分为两个阶段,但是没有真正的最大化有效信息。因此,杨等人[论文题目:Finding emergence in data by maximizing effective information]进一步改进该方法,通过引入反向动力学以及重加权技术借助变分不等式将原始的最大化有效信息转换成最大化其变分下界来直接优化目标函数。目标函数可以被定义为在给定微观预测足够小的情况下最大化宏观动力学的有效信息:
    
<math>\max_{\phi,f_q,\phi^{\dagger}} \mathcal{J}(f_q),</math>
 
<math>\max_{\phi,f_q,\phi^{\dagger}} \mathcal{J}(f_q),</math>
1,271

个编辑

导航菜单