
神经网络
文章平均质量分 84
海滩上的那乌克丽丽
I can because i believe i can.
展开
-
Batch Normalization Layer
目的:数据经过隐层 层层传递还能保持一开始的样子,我们希望不同批次数据在一开始传进来的时候,数据分布就尽可能一致。那么我们就一开始对输入的数据做归一化。原因:从正向传播的角度去考虑:在神经网络中,我们一般是一批次一批次进行训练,如果不同批次数据之间数据分布差异较大,网络刚刚学完上一个批次,又去学下一个批次,那么参数学习的波动就会大。由图象可以看出,数据分布状况经过一层层tanh隐层的传递,最后方差变得越来越小,这样直接导致的结果影响最终softmax分类的准确率。对于Re原创 2022-04-08 00:02:09 · 1308 阅读 · 0 评论 -
深度学习之神经网络
神经网络有监督的算法。神经网络算法既能做回归又能做分类。我们说人工智能做的就是拟人,神经网络就做的最佳的拟人。神经元神经网络是由很多神经元组成。神经元的每个输入是机器学习中的每个特征维度X,每个连接是权重W,将特征维度和权重相乘再相加汇总,经过一个非线性变换(函数变换)后的结果,就是一个神经元的输出。也是下层神经元的输入。也就是说对于一个神经元,有可能就是一个线性回归,也有可能就是一个逻辑回归,这取决于加和后的非线性变换是什么函数。那么整个神经网路就是浅层的机器学习算法的原创 2022-03-24 23:02:04 · 3100 阅读 · 0 评论