更改

删除329字节 、 2020年5月22日 (五) 22:07
无编辑摘要
第5行: 第5行:       −
在[[机器学习]]中,'''感知机'''是[[ 有监督学习]]中的一种[https://en.wikipedia.org/wiki/Binary_classification 二元分类器](一种输入一个实值向量,判断其是否属于某一个类的函数<ref name = "T1">[https://en.wikipedia.org/wiki/Yoav_Freund Freund, Y.]; [https://en.wikipedia.org/wiki/Robert_Schapire Schapire, R. E.](1999), [https://cseweb.ucsd.edu/~yfreund/papers/LargeMarginsUsingPerceptron.pdf  "Large margin classification using the perceptron algorithm" .] Report  37 (3): 277–296, [https://link.springer.com/article/10.1023%2FA%3A1007662407062 doi:10.1023/A:1007662407062].</ref>)。
+
在[[机器学习]]中,'''感知机'''是[[监督学习]]中的一种[[二元分类器]](一种输入一个实值向量,判断其是否属于某一个类的函数<ref name = "T1"> Freund, Y; Schapire, R. E.(1999), [https://cseweb.ucsd.edu/~yfreund/papers/LargeMarginsUsingPerceptron.pdf  "Large margin classification using the perceptron algorithm" .] Report  37 (3): 277–296, [https://link.springer.com/article/10.1023%2FA%3A1007662407062 doi:10.1023/A:1007662407062].</ref>)。
         −
这是一种[https://en.wikipedia.org/wiki/Linear_classifier 线性分类器],即一种基于[https://en.wikipedia.org/wiki/Linear_predictor_function 线性预测函数]将一组权值与特征向量相结合的分类算法。
+
这是一种[[线性分类器]],即一种基于[[线性预测函数]]将一组权值与特征向量相结合的分类算法。
      第18行: 第18行:  
===来源===
 
===来源===
   −
感知机算法由Frank Rosenblatt<ref>Rosenblatt, Frank (1957),  The Perceptron--a perceiving and recognizing automaton. Report 85-460-1, Cornell Aeronautical Laboratory.</ref>在1957年在Cornell Aeronautical Laboratory(康奈尔航空实验室)时所发明的一种[[人工神经网络]],它可以被视为一种最简单形式的[[前馈神经网络]],是一种二元[[线性分类器]]。由美国The Office of Naval Research(海军研办公室)资助<ref name= "office">Mikel Olazaran (1996). " A Sociological Study of the Official History of the Perceptrons Controversy". Social Studies of Science.  26 (3): 611–659 [http://journals.sagepub.com/doi/10.1177/030631296026003005 doi:10.1177/030631296026003005]. [https://en.wikipedia.org/wiki/JSTOR JSTOR] [https://www.jstor.org/stable/285702 285702]. </ref>。
+
感知机算法由Frank Rosenblatt<ref>Rosenblatt, Frank (1957),  The Perceptron--a perceiving and recognizing automaton. Report 85-460-1, Cornell Aeronautical Laboratory.</ref>在1957年在Cornell Aeronautical Laboratory(康奈尔航空实验室)时所发明的一种[[人工神经网络]],它可以被视为一种最简单形式的[[前馈神经网络]],是一种二元[[线性分类器]]。由美国The Office of Naval Research(海军研办公室)资助<ref name= "office">Mikel Olazaran (1996). " A Sociological Study of the Official History of the Perceptrons Controversy". Social Studies of Science.  26 (3): 611–659 [http://journals.sagepub.com/doi/10.1177/030631296026003005 doi:10.1177/030631296026003005]. JSTOR[https://www.jstor.org/stable/285702 285702]. </ref>。
    
Frank Rosenblatt给出了相应的感知机学习算法,常用的有感知机学习、最小二乘法和梯度下降法。譬如,感知机利用梯度下降法对损失函数进行极小化,求出可将训练数据进行线性划分的分离超平面,从而求得感知机模型。
 
Frank Rosenblatt给出了相应的感知机学习算法,常用的有感知机学习、最小二乘法和梯度下降法。譬如,感知机利用梯度下降法对损失函数进行极小化,求出可将训练数据进行线性划分的分离超平面,从而求得感知机模型。
第45行: 第45行:  
由于弗兰克·罗森布拉特等人没能够及时推广感知机学习算法到多层神经网络上,又由于《Perceptrons》在研究领域中的巨大影响,及人们对书中论点的误解,造成了人工神经领域发展的长年停滞及低潮,直到人们认识到[[多层感知机]]没有单层感知机固有的缺陷及[[反向传播算法]]在80年代的提出,才有所恢复。1987年,书中的错误得到了校正,并更名再版为《Perceptrons - Expanded Edition》。
 
由于弗兰克·罗森布拉特等人没能够及时推广感知机学习算法到多层神经网络上,又由于《Perceptrons》在研究领域中的巨大影响,及人们对书中论点的误解,造成了人工神经领域发展的长年停滞及低潮,直到人们认识到[[多层感知机]]没有单层感知机固有的缺陷及[[反向传播算法]]在80年代的提出,才有所恢复。1987年,书中的错误得到了校正,并更名再版为《Perceptrons - Expanded Edition》。
   −
1964年,Aizerman等人<ref>{{cite journal |last1=Aizerman |first1=M. A. |last2=Braverman |first2=E. M. |last3=Rozonoer |first3=L. I. |year=1964 |title=Theoretical foundations of the potential function method in pattern recognition learning |url=|journal=Automation and Remote Control |volume=25 |issue=|pages=821–837 }}</ref> 就提出了[[核感知机]]算法。在Freund及Schapire(1998)使用[[核技巧]]改进感知机学习算法之后,愈来愈多的人对感知机学习算法产生兴趣。感知机算法的间距下界的保证首先由Yoav Freund和 Robert Schapire(1998)<ref name = "T1"></ref>在不可分的情况下给出了,最近Mehryar [https://en.wikipedia.org/wiki/Mehryar_Mohri Mohri] and Rostamizadeh (2013)推广了先前的结论并给出了新的L1下界<ref>Mohri, Mehryar and Rostamizadeh, Afshin (2013). [https://arxiv.org/pdf/1305.0208.pdf Perceptron Mistake Bounds] arXiv:1305.0208, 2013.</ref>。后来的研究表明除了二元分类,感知机也能应用在较复杂、被称为structured learning类型的任务上,又或使用在分布式计算环境中的大规模机器学习问题上。
+
1964年,Aizerman等人<ref>{{cite journal |last1=Aizerman |first1=M. A. |last2=Braverman |first2=E. M. |last3=Rozonoer |first3=L. I. |year=1964 |title=Theoretical foundations of the potential function method in pattern recognition learning |url=|journal=Automation and Remote Control |volume=25 |issue=|pages=821–837 }}</ref> 就提出了[[核感知机]]算法。在Freund及Schapire(1998)使用[[核技巧]]改进感知机学习算法之后,愈来愈多的人对感知机学习算法产生兴趣。感知机算法的间距下界的保证首先由Yoav Freund和 Robert Schapire(1998)<ref name = "T1"></ref>在不可分的情况下给出了,最近Mehryar Mohri and Rostamizadeh (2013)推广了先前的结论并给出了新的L1下界<ref>Mohri, Mehryar and Rostamizadeh, Afshin (2013). [https://arxiv.org/pdf/1305.0208.pdf Perceptron Mistake Bounds] arXiv:1305.0208, 2013.</ref>。后来的研究表明除了二元分类,感知机也能应用在较复杂、被称为structured learning类型的任务上,又或使用在分布式计算环境中的大规模机器学习问题上。
    
==结构==
 
==结构==
421

个编辑