第113行: |
第113行: |
| === 步骤=== | | === 步骤=== |
| | | |
− | 初始化权重与阈值。权重初始化为全0或者一个很小的随机值。在下面的例子中我们使用0作为初始化值。 | + | #初始化权重与阈值。权重初始化为全0或者一个很小的随机值。在下面的例子中我们使用0作为初始化值。 |
− | 对于数据集 <math>D </math> 中每一个样本 j ,对输入 <math>x_j </math> 执行以下的步骤,并得到期望的输出 <math>d_j </math>: | + | #对于数据集 <math>D </math> 中每一个样本 j ,对输入 <math>x_j </math> 执行以下的步骤,并得到期望的输出 <math>d_j </math>: |
| | | |
| | | |
第126行: |
第126行: |
| | | |
| | | |
− | :对于[[离线学习]],第二步需要重复直到迭代误差<math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math>小于一个用户定于的误差阈值<math>\gamma</math>,或者预定于的迭代轮数已经完成,这里的 <math>s</math> 是是样本集的大小。
| + | #对于[[离线学习]],第二步需要重复直到迭代误差<math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math>小于一个用户定于的误差阈值<math>\gamma</math>,或者预定于的迭代轮数已经完成,这里的 <math>s</math> 是是样本集的大小。 |
| | | |
− | 这个算法在2.1和2.2步骤后更新了权重。这些权重会立即反应到训练数据中,并且随后进行更新,并不是等所有步骤结束后才更新的。
| + | 这个算法在2步骤后更新了权重。这些权重会立即反应到训练数据中,并且随后进行更新,并不是等所有步骤结束后才更新的。 |
| | | |
| === 简单实现与演示 === | | === 简单实现与演示 === |