更改

跳到导航 跳到搜索
删除1字节 、 2020年4月25日 (六) 23:04
第200行: 第200行:  
:<math>f^*(x) = \begin{cases}1 & \text{if }p_x \geq 1/2 \\ -1 & \text{otherwise}\end{cases} </math>
 
:<math>f^*(x) = \begin{cases}1 & \text{if }p_x \geq 1/2 \\ -1 & \text{otherwise}\end{cases} </math>
   −
对于平方损失,目标函数就是条件期望函数,<math>f_{sq}(x) </math><math>=\mathbb{E}[y_{x}]</math>;而对于对数损失,目标函数是逻辑函数,<math>f_{\log}(x) = \ln\left(p_x / ({1-p_x})\right)</math>。当这两个目标函数都是正确分类器,即 <math>\sgn(f_{sq}) = \sgn(f_\log) = f^*</math>,它们能给我们信息要比我们需要的更多。实际上,他们能给我们充足的信息来充分描绘<math> y_x</math>的分布。
+
对于平方损失,目标函数就是条件期望函数,<math>f_{sq}(x) </math><math>=\mathbb{E}[y_{x}]</math>;而对于对数损失,目标函数是逻辑函数,<math>f_{\log}(x) = \ln\left(p_x / ({1-p_x})\right)</math>。当这两个目标函数都是正确分类器,即 <math> sgn(f_{sq}) = sgn(f_\log) = f^*</math>,它们能给我们信息要比我们需要的更多。实际上,他们能给我们充足的信息来充分描绘<math> y_x</math>的分布。
    
在另一方面,合页损失的目标函数正是<math>f^*</math>。因此,在充分假设空间,或适当选择的核,SVM分类器会趋于可实现正确数据分类的最简单函数( <math>\mathcal{R}</math>)。这一方面拓展了SVM的几何解释:对于线性分类,间隔在支持向量和最简单的最大间隔分类器之间的函数使得经验风险最小化。<ref>Rosasco, Lorenzo; De Vito, Ernesto; Caponnetto, Andrea; Piana, Michele; Verri, Alessandro (2004-05-01). [https://ieeexplore.ieee.org/document/6789841/?arnumber=6789841&abstractAccess=no&userType=inst "Are Loss Functions All the Same?"]. Neural Computation. 16 (5): 1063–1076. [https://en.wikipedia.org/wiki/CiteSeerX CiteSeerX] [https://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.109.6786 10.1.1.109.6786] Freely accessible. [https://doi.org/10.1162/089976604773135104 doi:10.1162/089976604773135104]. [https://www.worldcat.org/issn/0899-7667 ISSN 0899-7667]. [https://www.ncbi.nlm.nih.gov/pubmed/15070510 PMID 15070510].</ref>
 
在另一方面,合页损失的目标函数正是<math>f^*</math>。因此,在充分假设空间,或适当选择的核,SVM分类器会趋于可实现正确数据分类的最简单函数( <math>\mathcal{R}</math>)。这一方面拓展了SVM的几何解释:对于线性分类,间隔在支持向量和最简单的最大间隔分类器之间的函数使得经验风险最小化。<ref>Rosasco, Lorenzo; De Vito, Ernesto; Caponnetto, Andrea; Piana, Michele; Verri, Alessandro (2004-05-01). [https://ieeexplore.ieee.org/document/6789841/?arnumber=6789841&abstractAccess=no&userType=inst "Are Loss Functions All the Same?"]. Neural Computation. 16 (5): 1063–1076. [https://en.wikipedia.org/wiki/CiteSeerX CiteSeerX] [https://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.109.6786 10.1.1.109.6786] Freely accessible. [https://doi.org/10.1162/089976604773135104 doi:10.1162/089976604773135104]. [https://www.worldcat.org/issn/0899-7667 ISSN 0899-7667]. [https://www.ncbi.nlm.nih.gov/pubmed/15070510 PMID 15070510].</ref>
1,526

个编辑

导航菜单