神经网络基础之感知机算法详解
1. 神经网络基础概述
神经网络在深度学习图像分类领域有着重要应用,但实际上它在几乎所有机器学习细分领域都有不同程度的使用。为了提升网络性能,一些函数允许取负值,比如Leaky ReLU函数族,它包含标准的Leaky ReLU变体、PReLUs和ELUs。
接下来,我们将通过研究实际的架构及其实现,让对神经网络的理解更加具体。首先,我们要探讨经典的感知机算法,它是最早创建的人工神经网络之一。
2. 感知机算法的发展历程
感知机算法由Rosenblatt在1958年首次提出,那篇名为《The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain》的论文让基于感知机的技术在神经网络领域风靡一时,对如今神经网络的普及和应用起到了巨大的推动作用。
然而,1969年“AI寒冬”降临机器学习领域,Minsky和Papert出版的《Perceptrons: an introduction to computational geometry》一书,使神经网络研究停滞了近十年。他们成功证明了单层感知机无法分离非线性数据点,而现实世界中的大多数数据集都是非线性可分的,这让感知机以及整个神经网络研究似乎陷入了绝境。
直到后来人们开始探索更深层次的网络(有时称为多层感知机)以及反向传播算法,20世纪70年代的“AI寒冬”才结束,神经网络研究再次升温。
尽管如此,感知机算法仍然非常重要,它为更高级的多层网络奠定了基础。下面我们将详细介绍感知机的架构、训练过程、终止条件,并使
超级会员免费看
订阅专栏 解锁全文
1008

被折叠的 条评论
为什么被折叠?



