更改

删除134字节 、 2020年4月22日 (三) 00:06
第186行: 第186行:     
k-means的这种使用已成功地与简单的线性分类器相结合,用于NLP(专门用于命名实体识别)<ref>{{cite conference |last1=Lin |first1=Dekang |last2=Wu |first2=Xiaoyun |year=2009 |title=Phrase clustering for discriminative learning |url=http://www.aclweb.org/anthology/P/P09/P09-1116.pdf |conference=Annual Meeting of the [[Association for Computational Linguistics|ACL]] and IJCNLP |pages=1030–1038 }}</ref>和计算机视觉中的半监督学习。在用于对象识别时,它可以通过更复杂的特征学习方法(例如自动编码器和受限的Boltzmann机器)表现出可比的性能。<ref name="coates20112" />但是,为了达到相同的效果,它通常需要更多的数据支持,因为每个数据点仅有助于一个“功能”。<ref name="Coates20122" />
 
k-means的这种使用已成功地与简单的线性分类器相结合,用于NLP(专门用于命名实体识别)<ref>{{cite conference |last1=Lin |first1=Dekang |last2=Wu |first2=Xiaoyun |year=2009 |title=Phrase clustering for discriminative learning |url=http://www.aclweb.org/anthology/P/P09/P09-1116.pdf |conference=Annual Meeting of the [[Association for Computational Linguistics|ACL]] and IJCNLP |pages=1030–1038 }}</ref>和计算机视觉中的半监督学习。在用于对象识别时,它可以通过更复杂的特征学习方法(例如自动编码器和受限的Boltzmann机器)表现出可比的性能。<ref name="coates20112" />但是,为了达到相同的效果,它通常需要更多的数据支持,因为每个数据点仅有助于一个“功能”。<ref name="Coates20122" />
  −
==与其他算法关系==
  −
===高斯混合模型===
  −
===K-SVD===
  −
===均值漂移聚类===
  −
===独立成分分析===
  −
===双边过滤===
  −
      
==示例==
 
==示例==
7,129

个编辑