更改

删除181字节 、 2020年5月22日 (五) 22:10
无编辑摘要
第18行: 第18行:  
===来源===
 
===来源===
   −
感知机算法由Frank Rosenblatt<ref>Rosenblatt, Frank (1957),  The Perceptron--a perceiving and recognizing automaton. Report 85-460-1, Cornell Aeronautical Laboratory.</ref>在1957年在Cornell Aeronautical Laboratory(康奈尔航空实验室)时所发明的一种[[人工神经网络]],它可以被视为一种最简单形式的[[前馈神经网络]],是一种二元[[线性分类器]]。由美国The Office of Naval Research(海军研办公室)资助<ref name= "office">Mikel Olazaran (1996). " A Sociological Study of the Official History of the Perceptrons Controversy". Social Studies of Science.  26 (3): 611–659 [http://journals.sagepub.com/doi/10.1177/030631296026003005 doi:10.1177/030631296026003005].[https://en.wikipedia.org/wiki/JSTOR JSTOR][https://www.jstor.org/stable/285702 285702]. </ref>。
+
感知机算法由Frank Rosenblatt<ref>Rosenblatt, Frank (1957),  The Perceptron--a perceiving and recognizing automaton. Report 85-460-1, Cornell Aeronautical Laboratory.</ref>在1957年在Cornell Aeronautical Laboratory(康奈尔航空实验室)时所发明的一种[[人工神经网络]],它可以被视为一种最简单形式的[[前馈神经网络]],是一种二元[[线性分类器]]。由美国The Office of Naval Research(海军研办公室)资助<ref name= "office">Mikel Olazaran (1996). " A Sociological Study of the Official History of the Perceptrons Controversy". Social Studies of Science.  26 (3): 611–659 </ref>。
    
Frank Rosenblatt给出了相应的感知机学习算法,常用的有感知机学习、最小二乘法和梯度下降法。譬如,感知机利用梯度下降法对损失函数进行极小化,求出可将训练数据进行线性划分的分离超平面,从而求得感知机模型。
 
Frank Rosenblatt给出了相应的感知机学习算法,常用的有感知机学习、最小二乘法和梯度下降法。譬如,感知机利用梯度下降法对损失函数进行极小化,求出可将训练数据进行线性划分的分离超平面,从而求得感知机模型。
421

个编辑