打开主菜单
首页
随机
登录
设置
关于集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
免责声明
集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
搜索
更改
←上一编辑
下一编辑→
NIS+
(查看源代码)
2024年9月27日 (五) 12:31的版本
添加181字节
、
2024年9月27日 (星期五)
→关键定理与证明
第81行:
第81行:
=NIS框架及其缺陷=
=NIS框架及其缺陷=
−
对于
{{
EquationRef
|1}}
式的求解,
[[NIS]]率先给出了神经网络求解的方案,如下图所示:
+
对于式
{{
EquationNote
|1}}
的求解,
[[NIS]]率先给出了神经网络求解的方案,如下图所示:
[[文件:NIS Graph 1.png|600px|神经信息压缩器的工作流程和框架。]]
[[文件:NIS Graph 1.png|600px|神经信息压缩器的工作流程和框架。]]
−
为了数学性质和可解释性,以及降低模型参数量,NIS采用了可逆神经网络。其中编码器对应了
{{
EquationRef
|1}}中的粗粒化策略[math]\phi[/math]
,它是由两步操作复合而成的,即:
+
为了数学性质和可解释性,以及降低模型参数量,NIS采用了可逆神经网络。其中编码器对应了式
{{
EquationNote
|1}}中的粗粒化策略[math]\phi[/math]
(<math>\boldsymbol{x} </math>是微观数据值,<math>\boldsymbol{y} </math>是宏观数据值)它是由两步操作复合而成的,即:
−
<math>y = \phi(x) = \chi_q (\psi(x)) </math>
+
<math>
\boldsymbol{
y
}
= \phi(x) = \chi_q (\psi(
\boldsymbol{
x
}
)) </math>
这里,
这里,
第93行:
第93行:
①双射映射,<math> ψ: R_p → R_p </math>,此步无信息丢失,由可逆神经网络实现。
①双射映射,<math> ψ: R_p → R_p </math>,此步无信息丢失,由可逆神经网络实现。
−
②投影运算,<math>\chi_q </math>,此步将输入的<math>p </math>维数据映射到<math>q </math>维数据上,得到宏观变量<math>Y_t </math>,此步丢失<math>p-q </math>维信息。
+
②投影运算,<math>\chi_q </math>,此步将输入的<math>p </math>维数据映射到<math>q </math>维数据上,得到宏观变量<math>
\boldsymbol{
Y_t
}
</math>,此步丢失<math>p-q </math>维信息。
第100行:
第100行:
<math>
<math>
−
\phi^{\dagger}(x)=\psi_{\omega}^{-1}(x\oplus\xi)
+
\phi^{\dagger}(
\boldsymbol{
x
}
)=\psi_{\omega}^{-1}(
\boldsymbol{
x
}
\oplus\xi)
</math>
</math>
第109行:
第109行:
②使用反粗粒化函数<math>
②使用反粗粒化函数<math>
\phi^{\dagger}
\phi^{\dagger}
−
</math>得到预测的微观变量<math>\hat{x}_{t+1} </math>。由于使用可逆神经网络,此步和编码器中的双射映射共享参数。
+
</math>得到预测的微观变量<math>
\boldsymbol{
\hat{x}_{t+1
}
} </math>。由于使用可逆神经网络,此步和编码器中的双射映射共享参数。
念
259
个编辑