更改
跳到导航
跳到搜索
第18行:
第18行:
− +
− 在19世纪40年代晚期,【】<> 基于【神经可塑性】的机制构造了一个学习假设,被称为【赫布学习】。赫布学习是【无监督学习(unsupervised learning)】。这形成了【长程增强效应】模型。在1948年,研究者开始将这些想法和【B类图灵机】应用到计算模型上。+
− +
− 【】<ref>创造了【感知机】,这是一种模式识别算法。Rosenblatt 使用数学符号描述了不在基本感知中的电路,如那时无法被神经网络处理的异或电路。<>+
无编辑摘要
== 历史 ==
== 历史 ==
【Warren McCulloch】 和 【Walter Pitts】<ref>构造了一个关于基于【数学】和【算法】的神经网络计算模型,称为阈值逻辑。这个模型为神经网络研究铺平了分为两边的道路。一个关注大脑中的生物学过程,而另一个关注神经网络向【人工智能】的应用。这个工作引领了神经网络的工作以及他们与【有限状态机(Finite state machine)】的联系<ref>
【Warren McCulloch】 和 【Walter Pitts】构造了一个关于基于【数学】和【算法】的神经网络计算模型,称为阈值逻辑。这个模型为神经网络研究铺平了分为两边的道路。一个关注大脑中的生物学过程,而另一个关注神经网络向【人工智能】的应用。这个工作引领了神经网络的工作以及他们与【有限状态机(Finite state machine)】的联系
=== 赫布学习(Hebbian learning)===
=== 赫布学习(Hebbian learning)===
在19世纪40年代晚期,【】基于【神经可塑性】的机制构造了一个学习假设,被称为【赫布学习】。赫布学习是【无监督学习(unsupervised learning)】。这形成了【长程增强效应】模型。在1948年,研究者开始将这些想法和【B类图灵机】应用到计算模型上。
Farley 和 【】<ref>首先使用计算机器,后来称作“计算器”,来模拟赫布网络。其他神经网络计算机器被【】创造.<ref>
Farley 和 【】首先使用计算机器,后来称作“计算器”,来模拟赫布网络。其他神经网络计算机器被【】创造.
【】创造了【感知机】,这是一种模式识别算法。Rosenblatt 使用数学符号描述了不在基本感知中的电路,如那时无法被神经网络处理的异或电路。
1959年,【】【】和【】在初级视皮层发现了两种类型的细胞:简单细胞(simple cell)和复杂细胞(complex cell),并基于他们的发现提出了一个生物学模型,
1959年,【】【】和【】在初级视皮层发现了两种类型的细胞:简单细胞(simple cell)和复杂细胞(complex cell),并基于他们的发现提出了一个生物学模型,