更改

跳到导航 跳到搜索
添加189字节 、 2024年8月21日 (星期三)
第427行: 第427行:  
[[文件:NISandNIS+.png|右|无框|500x500像素|1]]
 
[[文件:NISandNIS+.png|右|无框|500x500像素|1]]
   −
正向动力学训练是最小化预测误差<math>\left\|\phi_q^{\dagger}(Y(t+1))-X_{t+1}\right\| </math>,保证动力学预测未来的准确性,但是EI作为一种特殊的互信息,不仅与确定性有关,还与简并性有关。我们需要在提高动力学学习器的确定性的同时,提高它的非简并性。因此,学者在NIS的框架基础之上,加入了反向动力学,用以反向预测,即输入<math>y_{t+1}</math>,通过动力学学习器<math>g</math>之后,得到宏观量的反向预测值<math>\hat{y}_{t}</math>,使<math>y_{t+1}</math>和<math>\hat{y}_{t}</math>之间的误差值最小化。通过训练反向动力学学习器<math>g</math>,我们可以影响编码器,进而影响隐空间中的数据分布,从而使得动力学学习器<math>f</math>可以学到一个简并性低的动力学。
+
正向动力学<math> f </math>训练是最小化预测误差<math>L_1</math>,即<math>\left\|\phi_q^{\dagger}(Y(t+1))-X_{t+1}\right\| </math>,保证动力学预测未来的准确性,但是EI作为一种特殊的互信息,不仅与确定性有关,还与简并性有关。我们需要在提高动力学学习器的确定性的同时,提高它的非简并性。因此,学者在NIS的框架基础之上,加入了反向动力学<math> g </math>,用以反向预测。即输入<math>y_{t+1}</math>,通过动力学学习器<math>g</math>之后,得到宏观量的反向预测值<math>\hat{y}_{t}</math>,使<math>y_{t+1}</math>和<math>\hat{y}_{t}</math>之间的误差值<math>L_2</math>最小化。通过训练反向动力学学习器<math>g</math>,我们可以影响编码器,进而影响隐空间中的数据分布,从而使得动力学学习器<math>f</math>可以学到一个简并性低的动力学。
    
=== 分阶段训练 ===
 
=== 分阶段训练 ===
第434行: 第434行:  
第一阶段:只训练前向神经网络,最小化预测误差<math>w(\boldsymbol{x}_t)\parallel\boldsymbol{y}_t-g(\boldsymbol{y}_{t+1})\parallel </math>。
 
第一阶段:只训练前向神经网络,最小化预测误差<math>w(\boldsymbol{x}_t)\parallel\boldsymbol{y}_t-g(\boldsymbol{y}_{t+1})\parallel </math>。
   −
第二阶段,只训练反向神经网络,最小化预测误差<math>\parallel\hat{x}_{t+1}-\boldsymbol{x}_{t+1}\parallel </math>,本质上是用于训练<math>
+
第二阶段,训练反向神经网络和前向神经网络,本质上是用于训练<math>
 
\phi_{ω}
 
\phi_{ω}
</math>
+
</math>。在此过程中,用<math>λ </math>来平衡前向神经网络预测误差<math>w(\boldsymbol{x}_t)\parallel\boldsymbol{y}_t-g(\boldsymbol{y}_{t+1})\parallel </math>和反向神经网络预测误差<math>\parallel\hat{x}_{t+1}-\boldsymbol{x}_{t+1}\parallel </math>。在不同的实验中,<math>λ </math>取不同的值。
   −
在整个模型的训练过程中,总的目标(式{{EquationNote|3}})是最小化第一阶段的误差和第二阶段误差的拉格朗日函数,在不同的实验中,<math>λ </math>取不同的值。
+
在整个模型的训练过程中,总的目标如式{{EquationNote|3}}
    
=== 面对大规模复杂系统的拓展 ===
 
=== 面对大规模复杂系统的拓展 ===
196

个编辑

导航菜单