
神经网络学习笔记
神经网络课堂笔记
Ono_bing
这个作者很懒,什么都没留下…
展开
-
【神经网络】自组织特征映射网络(SOM)
自组织特征映射网络(SOM)Self-Organizing Feature Map Neural NetworksBP学习算法是一种典型的有监督学习算法,特点:每一个输入都有一个对应的理想输出自组织特征映射网络为无监督学习算法,只有样本,没有理想输出用途:聚类分析,分类SOM网络及其学习算法网络模型输入为nnn维:X=[x1,x2,...,xn]TX=[x_1,x_2,...,x_n]^TX=[x1,x2,...,xn]T输出层有ppp个结点:Y=[y1,y2,.原创 2020-07-07 10:43:44 · 976 阅读 · 0 评论 -
【神经网络】多层前馈神经网络——BP神经网络
多层前馈神经网络–BP神经网络模型结构多层结构,L层(L≥2L\geq2L≥2)信息前向传播输入层不包含在总层数中,为第0层(L0L_0L0)输入层的输入样本数为N0N_0N0:x1(t),x2(t),...,xN0(t)x_1(t),x_2(t),...,x_{N_0}(t)x1(t),x2(t),...,xN0(t)每个输入都要分别输入给第一层的所有单元第一层L1L_1L1的N1N_1N1个单元各自又有输出,为:y11(t),y21(t),...,yN1原创 2020-07-06 17:21:08 · 2744 阅读 · 0 评论 -
【神经网络】自适应线性单元——Adaline
自适应线性单元–Adaptive Linear Units–Adaline模型结构在M-P模型的基础上s(k)=∑i=1nwixi(k)−θ=∑i=0nwixi(k)=WTX(k)\begin{aligned}s(k)&=\sum_{i=1}^nw_ix_i(k)-\theta\\&=\sum_{i=0}^nw_ix_i(k)\\&=W^TX(k)\end{aligned}s(k)=i=1∑nwixi(k)−θ=i=0∑nwixi(k)=WTX(k)y(k)原创 2020-07-05 15:26:06 · 1375 阅读 · 0 评论 -
【神经网络】感知机算法的收敛性证明
感知机算法的收敛性感知机学习算法是否收敛?定理:假设给定m个输入样本({X(k)},(k=1,2,...,m)\{X(k)\},(k=1,2,...,m){X(k)},(k=1,2,...,m))线性可分,那么感知机学习算法的权值就会在有限次的步骤中收敛到理想输出。定性解释:如果两类n维样本线性可分,那么一定存在一个n-1维的平面将其分开,n-1维超平面定义为:W(k)=[w0(k),w1(k),...wn(k)]:WTX(k)=0W(k)=[w_0(k),w_1(k),...w_n(k)原创 2020-07-02 10:28:44 · 1207 阅读 · 0 评论 -
【神经网络】前向型神经网络(Feedforward Neural Networks)
前向型神经网络(Feedforward Neural Networks)M-P模型n个输入,n个权值,θ\thetaθ为阈值S=∑i=1nwixi−θS=\sum_{i=1}^n{w_ix_i-\theta}S=∑i=1nwixi−θ,φ(⋅)\varphi(·)φ(⋅)为非线性函数输出为:y=φ(S)=φ(∑i=1nwixi−θ)y=\varphi(S)=\varphi(\sum_{i=1}^n{w_ix_i-\theta})y=φ(S)=φ(∑i=1nwixi−θ)w1w2..原创 2020-07-02 10:26:22 · 1552 阅读 · 0 评论 -
【神经网络】神经网络绪论
神经网络绪论神经网络的定义生物学神经元人的大脑中有101110^{11}1011 - 101210^{12}1012 个神经元每个神经元与103−10410^{3}-10^{4}103−104个神经元相连神经元的结构是具有可塑性的(可以变化)人工神经元生物神经元是人工神经元的物理基础人工神经元的结构:x1,x2,...,xnx_1,x_2,...,x_nx1,x2,...,xn为输入,即与其他神经元接触得到的输入w1,w2,...,wnw_1,w_2原创 2020-07-02 10:23:00 · 334 阅读 · 0 评论