更改

跳到导航 跳到搜索
添加1字节 、 2020年4月28日 (二) 16:44
第185行: 第185行:  
: <math>\ell(y,z) = \max\left(0, 1 - yz \right).</math>
 
: <math>\ell(y,z) = \max\left(0, 1 - yz \right).</math>
   −
在这一观点下, SVM与其他基础的[https://en.wikipedia.org/wiki/Statistical_classification#Linear_classifiers 分类算法]联系紧密,如 [https://en.wikipedia.org/wiki/Regularized_least_squares 正则化最小二乘法] and [[ 逻辑回归]]。这三者的不同在于损失函数的选择:正则化最小二乘法统计经验风险最小化使用[https://zh.wikipedia.org/wiki/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 平方损失函数],  <math>\ell_{sq}(y,z) = (y-z)^2</math>;逻辑回归使用[https://zh.wikipedia.org/wiki/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 对数损失函数],
+
在这一观点下, SVM与其他基础的[https://en.wikipedia.org/wiki/Statistical_classification#Linear_classifiers 分类算法]联系紧密,如 [https://en.wikipedia.org/wiki/Regularized_least_squares 正则化最小二乘法] 和 '''逻辑回归'''。这三者的不同在于损失函数的选择:正则化最小二乘法统计经验风险最小化使用[https://zh.wikipedia.org/wiki/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 平方损失函数],  <math>\ell_{sq}(y,z) = (y-z)^2</math>;逻辑回归使用[https://zh.wikipedia.org/wiki/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 对数损失函数],
    
:<math>\ell_{\log}(y,z) = \ln(1 + e^{-yz}).</math>
 
:<math>\ell_{\log}(y,z) = \ln(1 + e^{-yz}).</math>
1,526

个编辑

导航菜单