更改

跳到导航 跳到搜索
添加181字节 、 2024年9月27日 (星期五)
第81行: 第81行:  
=NIS框架及其缺陷=
 
=NIS框架及其缺陷=
   −
对于{{EquationRef|1}}式的求解,[[NIS]]率先给出了神经网络求解的方案,如下图所示:
+
对于式{{EquationNote|1}}的求解,[[NIS]]率先给出了神经网络求解的方案,如下图所示:
    
[[文件:NIS Graph 1.png|600px|神经信息压缩器的工作流程和框架。]]
 
[[文件:NIS Graph 1.png|600px|神经信息压缩器的工作流程和框架。]]
   −
为了数学性质和可解释性,以及降低模型参数量,NIS采用了可逆神经网络。其中编码器对应了{{EquationRef|1}}中的粗粒化策略[math]\phi[/math],它是由两步操作复合而成的,即:
+
为了数学性质和可解释性,以及降低模型参数量,NIS采用了可逆神经网络。其中编码器对应了式{{EquationNote|1}}中的粗粒化策略[math]\phi[/math](<math>\boldsymbol{x} </math>是微观数据值,<math>\boldsymbol{y} </math>是宏观数据值)它是由两步操作复合而成的,即:
   −
<math>y = \phi(x) = \chi_q (\psi(x)) </math>
+
<math>\boldsymbol{y} = \phi(x) = \chi_q (\psi(\boldsymbol{x})) </math>
    
这里,
 
这里,
第93行: 第93行:  
①双射映射,<math> ψ: R_p → R_p    </math>,此步无信息丢失,由可逆神经网络实现。
 
①双射映射,<math> ψ: R_p → R_p    </math>,此步无信息丢失,由可逆神经网络实现。
   −
②投影运算,<math>\chi_q  </math>,此步将输入的<math>p </math>维数据映射到<math>q </math>维数据上,得到宏观变量<math>Y_t </math>,此步丢失<math>p-q </math>维信息。
+
②投影运算,<math>\chi_q  </math>,此步将输入的<math>p </math>维数据映射到<math>q </math>维数据上,得到宏观变量<math>\boldsymbol{Y_t} </math>,此步丢失<math>p-q </math>维信息。
      第100行: 第100行:     
<math>
 
<math>
\phi^{\dagger}(x)=\psi_{\omega}^{-1}(x\oplus\xi)
+
\phi^{\dagger}(\boldsymbol{x})=\psi_{\omega}^{-1}(\boldsymbol{x}\oplus\xi)
 
</math>
 
</math>
   第109行: 第109行:  
②使用反粗粒化函数<math>
 
②使用反粗粒化函数<math>
 
\phi^{\dagger}
 
\phi^{\dagger}
</math>得到预测的微观变量<math>\hat{x}_{t+1} </math>。由于使用可逆神经网络,此步和编码器中的双射映射共享参数。
+
</math>得到预测的微观变量<math>\boldsymbol{\hat{x}_{t+1}} </math>。由于使用可逆神经网络,此步和编码器中的双射映射共享参数。
     
237

个编辑

导航菜单