更改

跳到导航 跳到搜索
大小无更改 、 2024年9月27日 (星期五)
无编辑摘要
第347行: 第347行:     
首先,式{{EquationNote|1}}中的数学形式是一个泛函优化问题,很难直接进行优化。于是,作者将通过计算并优化该目标函数的一个变分下界来间接解决泛函优化问题。同时,在NIS+框架中,作者使用了编码器将p维的输入数据进行粗粒化,得到q维的宏观数据,下面编码器的通用逼近定理将证明编码器是可以近似任意复杂的粗粒化函数。
 
首先,式{{EquationNote|1}}中的数学形式是一个泛函优化问题,很难直接进行优化。于是,作者将通过计算并优化该目标函数的一个变分下界来间接解决泛函优化问题。同时,在NIS+框架中,作者使用了编码器将p维的输入数据进行粗粒化,得到q维的宏观数据,下面编码器的通用逼近定理将证明编码器是可以近似任意复杂的粗粒化函数。
 +
 +
在此章节,作者将使用大写字母来表示相应的随机变量。例如,<math>X_{t} </math>表示时间t的微观状态<math>x_{t} </math>的随机变量,<math>
 +
Y_{t+1}
 +
</math>表示时间t+1的宏观状态<math>
 +
y_{t+1}
 +
</math>对应的随机变量。对于任意随机变量<math>V</math>, <math>\tilde{V} </math>表示<math>X</math>被干预后的随机变量<math>V</math>。<math>\hat{X} </math>表示神经网络对<math>X</math>的预测。
    
=== 宏观EI的变分下界 ===
 
=== 宏观EI的变分下界 ===
第472行: 第478行:  
\mathcal{R}^p\times \mathcal{R}^q
 
\mathcal{R}^p\times \mathcal{R}^q
 
</math>粗粒化函数。''
 
</math>粗粒化函数。''
  −
在此章节,作者将使用大写字母来表示相应的随机变量。例如,<math>X_{t} </math>表示时间t的微观状态<math>x_{t} </math>的随机变量,<math>
  −
Y_{t+1}
  −
</math>表示时间t+1的宏观状态<math>
  −
y_{t+1}
  −
</math>对应的随机变量。对于任意随机变量<math>V</math>, <math>\tilde{V} </math>表示<math>X</math>被干预后的随机变量<math>V</math>。<math>\hat{X} </math>表示神经网络对<math>X</math>的预测。
   
{| class="wikitable"
 
{| class="wikitable"
 
|+
 
|+
259

个编辑

导航菜单