更改

删除353字节 、 2024年9月22日 (星期日)
第340行: 第340行:  
</math>,<math>λ</math>作为拉格朗日乘子,在实验框架内被认为是一个可调的超参数。
 
</math>,<math>λ</math>作为拉格朗日乘子,在实验框架内被认为是一个可调的超参数。
 
{| class="wikitable"
 
{| class="wikitable"
|+证明                                                                                                                                                                                                                                                                                                                                                                                             
+
|+
|原始的有约束的目标优化公式如式{{EquationNote|1}}所示。
+
|证明:
 +
原始的有约束的目标优化公式如式{{EquationNote|1}}所示。
 
在此方程中<math>\hat{X}_{t+1}=\psi_{\omega}^{-1}(\hat{Y}_{t+1}\bigoplus \xi)</math>,其中<math>\psi_{\omega}^{-1}</math>是可逆映射,根据引理1和引理2以及互信息的性质,我们可以得到:
 
在此方程中<math>\hat{X}_{t+1}=\psi_{\omega}^{-1}(\hat{Y}_{t+1}\bigoplus \xi)</math>,其中<math>\psi_{\omega}^{-1}</math>是可逆映射,根据引理1和引理2以及互信息的性质,我们可以得到:
   第440行: 第441行:  
y_{t+1}
 
y_{t+1}
 
</math>对应的随机变量。对于任意随机变量<math>V</math>, <math>\tilde{V} </math>表示<math>X</math>被干预后的随机变量<math>V</math>。<math>\hat{X} </math>表示神经网络对<math>X</math>的预测。
 
</math>对应的随机变量。对于任意随机变量<math>V</math>, <math>\tilde{V} </math>表示<math>X</math>被干预后的随机变量<math>V</math>。<math>\hat{X} </math>表示神经网络对<math>X</math>的预测。
 
+
{| class="wikitable"
证明:
+
|+
 
+
|证明:
 
首先,我们扩展基本编码器的定义,引入一个新的运算<math>
 
首先,我们扩展基本编码器的定义,引入一个新的运算<math>
 
\eta_{p,s}: \mathcal{R}^p\rightarrow \mathcal{R}^s
 
\eta_{p,s}: \mathcal{R}^p\rightarrow \mathcal{R}^s
第558行: 第559行:  
\mathcal{R}^p\times \mathcal{R}^q
 
\mathcal{R}^p\times \mathcal{R}^q
 
</math>粗粒化函数。
 
</math>粗粒化函数。
 +
|}
    
相关引理:
 
相关引理:
259

个编辑