更改

删除38字节 、 2024年10月26日 (星期六)
无编辑摘要
第83行: 第83行:  
对于式{{EquationNote|1}}的求解,[[NIS]]率先给出了神经网络求解的方案,如下图所示:
 
对于式{{EquationNote|1}}的求解,[[NIS]]率先给出了神经网络求解的方案,如下图所示:
   −
[[文件:NIS Graph 1.png|600px|神经信息压缩器的工作流程和框架。]]
+
[[文件:Image00.png|无框|600x600像素]]
    
图中,模型输入是微观状态<math>x_t </math>,<math>ϕ </math>是粗粒化函数(编码器),得到宏观变量<math>y_t </math>。<math>f </math>是动力学学习器,在宏观层面上学习有效的马尔可夫动力学。<math>{y}_{t+1} </math>是通过[math]f[/math]预测的t+1时刻的宏观状态。由于此时数据经过降维操作,为了使用反粗粒化函数<math>ϕ^† </math>(解码器),模型需要用高斯随机向量<math>N(0,I) </math>填充维度不足的数据。宏观变量经过反粗粒化函数之后可以得到预测的微观变量<math>\hat{x}_{t+1} </math>。而<math>x_{t+1} </math>和<math>\hat{x}_{t+1} </math>之间的差值<math>Loss </math>即为预测损失评估值,可以用来训练整个网络架构。
 
图中,模型输入是微观状态<math>x_t </math>,<math>ϕ </math>是粗粒化函数(编码器),得到宏观变量<math>y_t </math>。<math>f </math>是动力学学习器,在宏观层面上学习有效的马尔可夫动力学。<math>{y}_{t+1} </math>是通过[math]f[/math]预测的t+1时刻的宏观状态。由于此时数据经过降维操作,为了使用反粗粒化函数<math>ϕ^† </math>(解码器),模型需要用高斯随机向量<math>N(0,I) </math>填充维度不足的数据。宏观变量经过反粗粒化函数之后可以得到预测的微观变量<math>\hat{x}_{t+1} </math>。而<math>x_{t+1} </math>和<math>\hat{x}_{t+1} </math>之间的差值<math>Loss </math>即为预测损失评估值,可以用来训练整个网络架构。
259

个编辑