更改
跳到导航
跳到搜索
第150行:
第150行:
− 在【无监督学习】中,给定一些数据 <math>\textstyle x</math> ,要最小化损失函数 ,损失函数可以是数据<math>\textstyle x</math>和网络输出<math>{f}</math>的任何函数。+
− 损失函数依赖任务(模型的域)和任何【先验的】假设(模型的隐含性质,它的参数和观测值)+
− +
− 无监督学习范式中的任务通常是【估计】问题;应用包括【聚类】,【统计分布】的估计,【压缩】和【滤波】。+
→无监督学习(Unsupervised learning)
====无监督学习(Unsupervised learning)====
====无监督学习(Unsupervised learning)====
在[https://en.wikipedia.org/wiki/Unsupervised_learning 无监督学习]中,给定一些数据 <math>\textstyle x</math> ,要最小化损失函数 ,损失函数可以是数据<math>\textstyle x</math>和网络输出<math>{f}</math>的任何函数。
损失函数依赖任务(模型的域)和任何[https://en.wikipedia.org/wiki/A_priori_and_a_posteriori 先验的]假设(模型的隐含性质,它的参数和观测值)
一个琐碎的例子是,考虑模型<math>{f(x) = a}</math>其中 <math>\textstyle a</math> 是一个常数,损失函数为 <math>\textstyle C=E[(x - f(x))^2]</math>. 最小化这个损失产生了一个 <math>\textstyle a</math> 的值,它与数据均值相等。损失函数可以更加复杂。它的形式取决于应用:举个例子,在【压缩】中它可以与<math>\textstyle x</math> 和 <math>\textstyle f(x)</math>间的【交互信息】有关,在统计建模中,它可以与模型给出数据的【后验概率】有关。(注意在这两个例子中这些量应当被最大化而不是最小化)
一个琐碎的例子是,考虑模型<math>{{f(x)}={a}}</math>其中 <math>\textstyle a</math> 是一个常数,损失函数为 <math>\textstyle C=E[(x - f(x))^2]</math>. 最小化这个损失产生了一个 <math>\textstyle a</math> 的值,它与数据均值相等。损失函数可以更加复杂。它的形式取决于应用:举个例子,在[https://en.wikipedia.org/wiki/Data_compression 压缩]中它可以与<math>\textstyle x</math> 和 <math>\textstyle f(x)</math>间的[https://en.wikipedia.org/wiki/Mutual_information 交互信息]有关,在统计建模中,它可以与模型给出数据的[https://en.wikipedia.org/wiki/Posterior_probability 后验概率]有关。(注意在这两个例子中这些量应当被最大化而不是最小化)
无监督学习范式中的任务通常是[https://en.wikipedia.org/wiki/Approximation 估计]问题;应用包括[https://en.wikipedia.org/wiki/Data_clustering 聚类],[https://en.wikipedia.org/wiki/Statistical_distributions 统计分布]的估计,[https://en.wikipedia.org/wiki/Data_compression 压缩]和[https://en.wikipedia.org/wiki/Bayesian_spam_filtering 滤波]。
====强化学习(Reinforcement learning)====
====强化学习(Reinforcement learning)====