更改

添加725字节 、 2024年6月10日 (星期一)
第884行: 第884行:  
可逆神经网络下的数值解以及随机迭代系统的解析解都可以给出计算方法。
 
可逆神经网络下的数值解以及随机迭代系统的解析解都可以给出计算方法。
   −
对于可逆神经网络,主要基于高斯神经网络上的变量进行计算
+
对于一般的神经网络,它可看做是从输入X到输出Y的一种不确定的函数映射:
 +
<math>
 +
y=f(x)+\xi
 +
</math>
   −
输入变量包括神经网络的输入维度、输出维数、输出变量视为高斯分布后的协方差矩阵的逆、映射函数、干预区间大小、以及蒙特卡罗积分的样本数。输出变量包括维度平均EI、EI系数、确定性、简并性等。<syntaxhighlight lang="python3">
+
其中x的维度为input_size,y的维度为output_size,[math]\xi[/math]为一高斯分布,其协方差矩阵为:[math]\Sigma=\diagonal(\sigma_1,\sigma_2,\cdots,\sigma_n)[/math],这里,[math]\sigma_i[/math]为该神经网络第i个维度的均方误差(MSE)。该矩阵的逆记为sigmas_matrix。映射函数f记为func,则可以用下面的代码计算该神经网络的EI。该算法的基本思想是利用蒙特卡洛方法计算公式{{EquationNote|6}}的积分。
 +
 
 +
* 输入变量:
 +
神经网络的输入维度(input_size)输出维数(output_size)、输出变量视为高斯分布后的协方差矩阵的逆(sigmas_matrix)、映射函数(func)、干预区间大小(L的取值)、以及蒙特卡罗积分的样本数(num_samples)。
 +
 
 +
* 输出变量:
 +
 
 +
维度平均EI(d_EI)、EI系数(eff)、EI值(EI)、确定性(term1)、简并性(term2)和[math]\ln L[/math](-np.log(rho))。
 +
 
 +
<syntaxhighlight lang="python3">
 
def approx_ei(input_size, output_size, sigmas_matrix, func, num_samples, L, easy=True, device=None):
 
def approx_ei(input_size, output_size, sigmas_matrix, func, num_samples, L, easy=True, device=None):
  
786

个编辑