更改

添加889字节 、 2024年7月24日 (星期三)
无编辑摘要
第96行: 第96行:     
最后,用一种具有权参数的前馈神经网络fq对宏观动力学fθ进行参数化。它的输入和输出层神经元的数量等于宏观状态q的维数。它有两个隐藏层,每层有64个神经元,输出使用LeakyReLU进行转换。为了计算EI,我们将这个前馈神经网络看作一个高斯分布,它对条件概率p(yt+1|yt)进行建模。当神经网络收敛时,yt与yt+1之间的互信息近似于xt与xt+1之间的互信息,因此需要方程{{EquationNote|1}}中的约束。
 
最后,用一种具有权参数的前馈神经网络fq对宏观动力学fθ进行参数化。它的输入和输出层神经元的数量等于宏观状态q的维数。它有两个隐藏层,每层有64个神经元,输出使用LeakyReLU进行转换。为了计算EI,我们将这个前馈神经网络看作一个高斯分布,它对条件概率p(yt+1|yt)进行建模。当神经网络收敛时,yt与yt+1之间的互信息近似于xt与xt+1之间的互信息,因此需要方程{{EquationNote|1}}中的约束。
 +
 +
 +
具体来说,模型输入是微观状态<math>X_t\ (X_t^1,X_t^2,…,X_t^p ) </math>,<math>p </math>表示输入数据的维数,输出预测下一个时刻的微观状态<math>\hat{X}_{t+1}\left(\hat{X}_{t+1}^1, \hat{X}_{t+1}^2, \ldots, \hat{X}_{t+1}^p\right) </math>,该方法的目标函数是希望保证微观状态预测误差很小的条件下最大化有效信息,在保证预测误差约束足够小的情况下,NIS方法可以避免trivial解的出现。
 +
 +
具体计算公式如下所示:
 +
 +
 +
<math>\max_{\phi_q,\hat{f}_{\phi_q},\phi_q^†,q} \mathcal{I}(\hat{f}_{\phi_q})</math>
 +
 +
<math>\text{s.t.}\left\|\phi_q^{\dagger}(Y(t+1))-X_{t+1}\right\|<\epsilon </math>
 +
 +
 +
 +
最终希望得到有效的粗粒化维度<math>q </math>、粗粒化策略<math>\mathrm{\phi}_q </math>和宏观动力学<math>{\hat{f}}_{\mathrm{\phi}_q} </math>。
 +
 +
== 概述 ==
 +
 +
 +
== NIS的缺陷 ==
    
= 强化版神经信息压缩机(NIS+)=
 
= 强化版神经信息压缩机(NIS+)=
196

个编辑