更改
跳到导航
跳到搜索
第150行:
第150行:
− +
− +
→无监督学习(Unsupervised learning)
====无监督学习(Unsupervised learning)====
====无监督学习(Unsupervised learning)====
在【无监督学习】中,给定一些数据 <math>\textstyle x</math> ,要最小化损失函数 ,损失函数可以是数据<math>\textstyle x</math>和网络输出<math>\textstyle f</math>的任何函数。
在【无监督学习】中,给定一些数据 <math>\textstyle x</math> ,要最小化损失函数 ,损失函数可以是数据<math>\textstyle x</math>和网络输出<math>{f}</math>的任何函数。
损失函数依赖任务(模型的域)和任何【先验的】假设(模型的隐含性质,它的参数和观测值)
损失函数依赖任务(模型的域)和任何【先验的】假设(模型的隐含性质,它的参数和观测值)
一个琐碎的例子是,考虑模型<math>\textstyle f(x) = a</math> 其中 <math>\textstyle a</math> 是一个常数,损失函数为 <math>\textstyle C=E[(x - f(x))^2]</math>. 最小化这个损失产生了一个 <math>\textstyle a</math> 的值,它与数据均值相等。损失函数可以更加复杂。它的形式取决于应用:举个例子,在【压缩】中它可以与<math>\textstyle x</math> 和 <math>\textstyle f(x)</math>间的【交互信息】有关,在统计建模中,它可以与模型给出数据的【后验概率】有关。(注意在这两个例子中这些量应当被最大化而不是最小化)
一个琐碎的例子是,考虑模型<math>{f(x) = a}</math>其中 <math>\textstyle a</math> 是一个常数,损失函数为 <math>\textstyle C=E[(x - f(x))^2]</math>. 最小化这个损失产生了一个 <math>\textstyle a</math> 的值,它与数据均值相等。损失函数可以更加复杂。它的形式取决于应用:举个例子,在【压缩】中它可以与<math>\textstyle x</math> 和 <math>\textstyle f(x)</math>间的【交互信息】有关,在统计建模中,它可以与模型给出数据的【后验概率】有关。(注意在这两个例子中这些量应当被最大化而不是最小化)
无监督学习范式中的任务通常是【估计】问题;应用包括【聚类】,【统计分布】的估计,【压缩】和【滤波】。
无监督学习范式中的任务通常是【估计】问题;应用包括【聚类】,【统计分布】的估计,【压缩】和【滤波】。