在另一方面,合页损失的目标函数正是<math>f^*</math>。因此,在充分假设空间,或适当选择的核,SVM分类器会趋于可实现正确数据分类的最简单函数( <math>\mathcal{R}</math>)。这一方面拓展了SVM的几何解释:对于线性分类,间隔在支持向量和最简单的最大间隔分类器之间的函数使得经验风险最小化。<ref>Rosasco, Lorenzo; De Vito, Ernesto; Caponnetto, Andrea; Piana, Michele; Verri, Alessandro (2004-05-01). [https://ieeexplore.ieee.org/document/6789841/?arnumber=6789841&abstractAccess=no&userType=inst "Are Loss Functions All the Same?"]. Neural Computation. 16 (5): 1063–1076. [https://en.wikipedia.org/wiki/CiteSeerX CiteSeerX] [https://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.109.6786 10.1.1.109.6786] Freely accessible. [https://doi.org/10.1162/089976604773135104 doi:10.1162/089976604773135104]. [https://www.worldcat.org/issn/0899-7667 ISSN 0899-7667]. [https://www.ncbi.nlm.nih.gov/pubmed/15070510 PMID 15070510].</ref> | 在另一方面,合页损失的目标函数正是<math>f^*</math>。因此,在充分假设空间,或适当选择的核,SVM分类器会趋于可实现正确数据分类的最简单函数( <math>\mathcal{R}</math>)。这一方面拓展了SVM的几何解释:对于线性分类,间隔在支持向量和最简单的最大间隔分类器之间的函数使得经验风险最小化。<ref>Rosasco, Lorenzo; De Vito, Ernesto; Caponnetto, Andrea; Piana, Michele; Verri, Alessandro (2004-05-01). [https://ieeexplore.ieee.org/document/6789841/?arnumber=6789841&abstractAccess=no&userType=inst "Are Loss Functions All the Same?"]. Neural Computation. 16 (5): 1063–1076. [https://en.wikipedia.org/wiki/CiteSeerX CiteSeerX] [https://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.109.6786 10.1.1.109.6786] Freely accessible. [https://doi.org/10.1162/089976604773135104 doi:10.1162/089976604773135104]. [https://www.worldcat.org/issn/0899-7667 ISSN 0899-7667]. [https://www.ncbi.nlm.nih.gov/pubmed/15070510 PMID 15070510].</ref> |