更改

跳到导航 跳到搜索
添加3字节 、 2020年5月22日 (五) 22:26
第113行: 第113行:  
=== 步骤===
 
=== 步骤===
   −
#初始化权重与阈值。权重初始化为全0或者一个很小的随机值。在下面的例子中我们使用0作为初始化值。
+
1)初始化权重与阈值。权重初始化为全0或者一个很小的随机值。在下面的例子中我们使用0作为初始化值。
#对于数据集 <math>D </math> 中每一个样本 j ,对输入 <math>x_j </math> 执行以下的步骤,并得到期望的输出 <math>d_j </math>:
+
2)对于数据集 <math>D </math> 中每一个样本 j ,对输入 <math>x_j </math> 执行以下的步骤,并得到期望的输出 <math>d_j </math>:
    
:计算以下的输出:<math>\begin{align}y_j(t) &= f[\mathbf{w}(t)\cdot\mathbf{x}_j] \\&= f[w_0(t)x_{j,0} + w_1(t)x_{j,1} + w_2(t)x_{j,2} + \dotsb + w_n(t)x_{j,n}]\end{align}</math>
 
:计算以下的输出:<math>\begin{align}y_j(t) &= f[\mathbf{w}(t)\cdot\mathbf{x}_j] \\&= f[w_0(t)x_{j,0} + w_1(t)x_{j,1} + w_2(t)x_{j,2} + \dotsb + w_n(t)x_{j,n}]\end{align}</math>
第120行: 第120行:  
:更新权重:<math>w_i(t+1) = w_i(t) + r\cdot(d_j - y_j(t)) x_{j,i}, 0 < i < n</math>,其中 <math>r</math>是学习速率。
 
:更新权重:<math>w_i(t+1) = w_i(t) + r\cdot(d_j - y_j(t)) x_{j,i}, 0 < i < n</math>,其中 <math>r</math>是学习速率。
   −
#对于[[离线学习]],第二步需要重复直到迭代误差<math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math>小于一个用户定于的误差阈值<math>\gamma</math>,或者预定于的迭代轮数已经完成,这里的 <math>s</math> 是是样本集的大小。
+
3)对于[[离线学习]],第二步需要重复直到迭代误差<math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math>小于一个用户定于的误差阈值<math>\gamma</math>,或者预定于的迭代轮数已经完成,这里的 <math>s</math> 是是样本集的大小。
    
这个算法在2步骤后更新了权重。这些权重会立即反应到训练数据中,并且随后进行更新,并不是等所有步骤结束后才更新的。
 
这个算法在2步骤后更新了权重。这些权重会立即反应到训练数据中,并且随后进行更新,并不是等所有步骤结束后才更新的。
421

个编辑

导航菜单