更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
SVM支持向量机
(查看源代码)
2020年4月28日 (二) 16:44的版本
添加1字节
、
2020年4月28日 (二) 16:44
→SVM与铰链损失
第185行:
第185行:
: <math>\ell(y,z) = \max\left(0, 1 - yz \right).</math>
: <math>\ell(y,z) = \max\left(0, 1 - yz \right).</math>
−
在这一观点下, SVM与其他基础的[https://en.wikipedia.org/wiki/Statistical_classification#Linear_classifiers 分类算法]联系紧密,如 [https://en.wikipedia.org/wiki/Regularized_least_squares 正则化最小二乘法]
and [[
逻辑回归
]]
。这三者的不同在于损失函数的选择:正则化最小二乘法统计经验风险最小化使用[https://zh.wikipedia.org/wiki/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 平方损失函数], <math>\ell_{sq}(y,z) = (y-z)^2</math>;逻辑回归使用[https://zh.wikipedia.org/wiki/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 对数损失函数],
+
在这一观点下, SVM与其他基础的[https://en.wikipedia.org/wiki/Statistical_classification#Linear_classifiers 分类算法]联系紧密,如 [https://en.wikipedia.org/wiki/Regularized_least_squares 正则化最小二乘法]
和 '''
逻辑回归
'''
。这三者的不同在于损失函数的选择:正则化最小二乘法统计经验风险最小化使用[https://zh.wikipedia.org/wiki/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 平方损失函数], <math>\ell_{sq}(y,z) = (y-z)^2</math>;逻辑回归使用[https://zh.wikipedia.org/wiki/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 对数损失函数],
:<math>\ell_{\log}(y,z) = \ln(1 + e^{-yz}).</math>
:<math>\ell_{\log}(y,z) = \ln(1 + e^{-yz}).</math>
费米子
1,526
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本