其中,模型输入是微观状态<math>x_t </math>。<math>ϕ </math>是粗粒化函数(编码器),得到宏观变量<math>y_t </math>。<math>f </math>是动力学学习器,在宏观层面上学习有效的马尔可夫动力学。<math>\hat{y}_{t+1} </math>是通过[math]f[/math]预测的t+1时刻的宏观状态。由于此时数据经过降维操作,为了使用反粗粒化函数<math>ϕ^† </math>(解码器),数据需要拼接高斯随机向量<math>N(0,I) </math>。宏观变量经过反粗粒化函数之后可以得到预测的微观变量<math>\hat{x}_{t+1} </math>。而<math>x_{t+1} </math>和<math>\hat{x}_{t+1} </math>之间的差值<math>L_1 </math>即为预测损失评估值。同样,将微观状态<math>x_{t+1} </math>输入,经过粗粒化函数(编码器)<math>ϕ </math>,得到宏观变量<math>y_{t+1} </math>。<math>g </math>是反向动力学学习器。<math>\hat{y}_{t} </math>是通过[math]g[/math]预测的t时刻的宏观状态。而<math>y_{t} </math>和<math>\hat{y}_{t} </math>之间的差值<math>L_2 </math>即为反向预测损失评估值。 | 其中,模型输入是微观状态<math>x_t </math>。<math>ϕ </math>是粗粒化函数(编码器),得到宏观变量<math>y_t </math>。<math>f </math>是动力学学习器,在宏观层面上学习有效的马尔可夫动力学。<math>\hat{y}_{t+1} </math>是通过[math]f[/math]预测的t+1时刻的宏观状态。由于此时数据经过降维操作,为了使用反粗粒化函数<math>ϕ^† </math>(解码器),数据需要拼接高斯随机向量<math>N(0,I) </math>。宏观变量经过反粗粒化函数之后可以得到预测的微观变量<math>\hat{x}_{t+1} </math>。而<math>x_{t+1} </math>和<math>\hat{x}_{t+1} </math>之间的差值<math>L_1 </math>即为预测损失评估值。同样,将微观状态<math>x_{t+1} </math>输入,经过粗粒化函数(编码器)<math>ϕ </math>,得到宏观变量<math>y_{t+1} </math>。<math>g </math>是反向动力学学习器。<math>\hat{y}_{t} </math>是通过[math]g[/math]预测的t时刻的宏观状态。而<math>y_{t} </math>和<math>\hat{y}_{t} </math>之间的差值<math>L_2 </math>即为反向预测损失评估值。 |