更改

跳到导航 跳到搜索
添加5字节 、 2020年4月26日 (日) 15:02
无编辑摘要
第4行: 第4行:  
}}
 
}}
   −
[[File:S3VMsmall_c.gif|220px|thumb|right|利用SVM的模式识别学习过程]]
+
[[File:S3VMsmall_c.gif|400px|thumb|right|利用SVM的模式识别学习过程]]
   −
在[[机器学习]]中,'''支持向量机 support vector machine''',常简称为SVM,又名支持向量网络<ref name="cortes95">[https://en.wikipedia.org/wiki/Corinna_Cortes Cortes, Corinna]; Vapnik, Vladimir N. (1995). "Support-vector networks". [https://en.wikipedia.org/wiki/Machine_Learning_(journal) Machine Learning]. 20 (3): 273–297. doi:10.1007/BF00994018</ref>)指的是一种有'''监督式学习'''模型及其相关的学习算法,广泛用于[https://zh.wikipedia.org/wiki/%E5%88%86%E7%B1%BB%E9%97%AE%E9%A2%98 分类]及[https://zh.wikipedia.org/wiki/%E8%BF%B4%E6%AD%B8%E5%88%86%E6%9E%90 回归分析]。当给定一组训练实例,并标记这些训练实例属于两个类别的其中之一,SVM训练算法基于这些实例创建一个模型将新的实例归类为两个类别中的一个,使其成为非概率'''二元线性分类器'''(尽管SVM中有些方法如[https://en.wikipedia.org/wiki/Platt_scaling 概率输出]会在概率分类集合中使用)。SVM模型将实例表示为空间中的点,使得不同类别的实例被尽可能明显的间隔所分开。然后,新的实例将被映射到同一空间中,并基于它们落在间隔的哪一侧来预测其所属类别。
+
在机器学习中,'''支持向量机 support vector machine''',常简称为SVM,又名支持向量网络<ref name="cortes95">[https://en.wikipedia.org/wiki/Corinna_Cortes Cortes, Corinna]; Vapnik, Vladimir N. (1995). "Support-vector networks". [https://en.wikipedia.org/wiki/Machine_Learning_(journal) Machine Learning]. 20 (3): 273–297. doi:10.1007/BF00994018</ref>,指的是一种有'''监督式学习'''的模型及其相关的学习算法,广泛用于[https://zh.wikipedia.org/wiki/%E5%88%86%E7%B1%BB%E9%97%AE%E9%A2%98 分类]及[https://zh.wikipedia.org/wiki/%E8%BF%B4%E6%AD%B8%E5%88%86%E6%9E%90 回归分析]。当给定一组训练实例,并标记这些训练实例属于两个类别的其中之一,SVM训练算法基于这些实例创建一个模型将新的实例归类为两个类别中的一个,使其成为非概率'''二元线性分类器'''(尽管SVM中有些方法如[https://en.wikipedia.org/wiki/Platt_scaling 概率输出]会在概率分类集合中使用)。SVM模型将实例表示为空间中的点,使得不同类别的实例被尽可能明显的间隔所分开。然后,新的实例将被映射到同一空间中,并基于它们落在间隔的哪一侧来预测其所属类别。
      第13行: 第13行:  
==动机==
 
==动机==
   −
[https://en.wikipedia.org/wiki/Statistical_classification 数据分类]是机器学习中的一项常见任务。 假设给定的一些[https://en.wikipedia.org/wiki/Data_point 数据点]各自属于两个类其中之一,而数据分类的目标是利用这些数据确定新给定的数据点将在哪个类中。对于支持向量机来说,数据点被视为<math>p</math>维向量,而我们想知道是否可以用<math>p-1</math>维[https://en.wikipedia.org/wiki/Hyperplane 超平面]来分开这些点。这就是所谓的[https://en.wikipedia.org/wiki/Linear_classifier 线性分类器]。可能存在许多超平面可以把数据分类,而最佳超平面的一个合理选择标准是找出把两个类以[https://en.wikipedia.org/wiki/Maximum-margin_hyperplane 最大间隔分开的超平面]。
+
[https://en.wikipedia.org/wiki/Statistical_classification 数据分类]是机器学习中的一项常见任务。 假设给定的一些[https://en.wikipedia.org/wiki/Data_point 数据点]各自属于两个类中的其中一个,而数据分类的目标是利用这些数据确定新给定的数据点将在哪个类中。对于支持向量机来说,数据点被视为<math>p</math>维向量,而我们想知道是否可以用<math>p-1</math>维[https://en.wikipedia.org/wiki/Hyperplane 超平面]来分开这些点。这就是所谓的[https://en.wikipedia.org/wiki/Linear_classifier 线性分类器]。可能存在许多超平面可以把数据分类,而最佳超平面的一个合理选择标准是找出把两个类以[https://en.wikipedia.org/wiki/Maximum-margin_hyperplane 最大间隔分开的超平面]。
 
[[File:220px-Svm_separating_hyperplanes_(SVG).svg.png|220px|thumb|right|<math>H_1</math> 不能把类别分开。<math>H_{2}</math> 可以,但只有很小的间隔。<math>H_3</math> 以最大间隔将它们分开。]]
 
[[File:220px-Svm_separating_hyperplanes_(SVG).svg.png|220px|thumb|right|<math>H_1</math> 不能把类别分开。<math>H_{2}</math> 可以,但只有很小的间隔。<math>H_3</math> 以最大间隔将它们分开。]]
  
1,526

个编辑

导航菜单