更改

跳到导航 跳到搜索
添加171字节 、 2024年6月30日 (星期日)
第218行: 第218行:  
同时NIS方法与前面提到的G-emergence也有相似之处,例如,NIS同样采用了格兰杰因果的思想:通过预测下一个时间步的微观状态来优化有效的宏观状态。然而,这两个框架之间有几个明显的区别:a)在G-emergence理论中,宏观状态需要人工选择,然后NIS中是通过自动优化粗粒化策略来得到宏观状态;b)NIS使用神经网络来预测未来状态,而G-emergence使用自回归技术来拟合数据。
 
同时NIS方法与前面提到的G-emergence也有相似之处,例如,NIS同样采用了格兰杰因果的思想:通过预测下一个时间步的微观状态来优化有效的宏观状态。然而,这两个框架之间有几个明显的区别:a)在G-emergence理论中,宏观状态需要人工选择,然后NIS中是通过自动优化粗粒化策略来得到宏观状态;b)NIS使用神经网络来预测未来状态,而G-emergence使用自回归技术来拟合数据。
   −
但是该方法存在一些不足,作者将优化过程分为两个阶段,但是没有真正的最大化有效信息。因此,杨等人进一步改进该方法,通过引入反向动力学以及重加权技术借助变分不等式将原始的最大化有效信息转换成最大化其变分下界来直接优化目标函数。
+
但是该方法存在一些不足,作者将优化过程分为两个阶段,但是没有真正的最大化有效信息。因此,杨等人进一步改进该方法,通过引入反向动力学以及重加权技术借助变分不等式将原始的最大化有效信息转换成最大化其变分下界来直接优化目标函数。目标函数可以被定义为在给定微观预测足够小的情况下最大化宏观动力学的有效信息:
 +
<math>\max_{\phi,f_q,\phi^+} \mathcal{J}(f_q),</math>
   −
<math>\max_{\phi,f_q,\phi^+} \mathcal{J}(f_q), ,.</math>
+
<math>s.t. || \hat{\boldsymbol{x}}_{t+1}-\boldsymbol{x}_{t+1} || < \epsilon ,</math>
   −
<math>s.t. || \hat{\boldsymbol{x}}_{t+1}-\boldsymbol{x}_{t+1} || < \epsilon</math>
+
<math> \hat{\boldsymbol{x}}_{t+1}=\phi^{\dag}(f_q(\phi(\boldsymbol{x}_t)))</math>
   −
<math> \hat{\boldsymbol{x}}_{t+1}=\phi^{\dag}(f_q(\phi(\boldsymbol{x}_t)))</math>
+
将最大化问题转化为带有约束的最小化问题:
    
<math>\min_{\omega,\theta,\theta'} \sum_{i=0}^{T-1}w(\boldsymbol{x}_t)||\boldsymbol{y}_t-g_{\theta'}(\boldsymbol{y}_{t+1})||+\lambda|| \hat{\boldsymbol{x}}_{t+1}-\boldsymbol{x}_{t+1} ||</math>
 
<math>\min_{\omega,\theta,\theta'} \sum_{i=0}^{T-1}w(\boldsymbol{x}_t)||\boldsymbol{y}_t-g_{\theta'}(\boldsymbol{y}_{t+1})||+\lambda|| \hat{\boldsymbol{x}}_{t+1}-\boldsymbol{x}_{t+1} ||</math>
2,440

个编辑

导航菜单