
机器学习
sdssee
这个作者很懒,什么都没留下…
展开
-
ReLU激活函数
在深度神经网络中,通常使用一种叫修正线性单元(Rectified linear unit,ReLU)作为神经元的激活函数。ReLU起源于神经科学的研究:2001年,Dayan、Abott从生物学角度模拟出了脑神经元接受信号更精确的激活模型,如下图:其中横轴是时间(ms),纵轴是神经元的放电速率(Firing Rate)。同年,Attwell等神经科学家通过研究大脑的能量消耗过程,推测神经元的工...原创 2020-03-17 22:32:47 · 416 阅读 · 0 评论 -
sklearn库中fit_transform()和transform()的区别
fit_transform()和transform()是sklearn库中常用的数据预处理函数,在《Python机器学习及实践》一书中,涉及到这两个函数的代码如下:# 从sklearn.preprocessing导入StandardScalerfrom sklearn.preprocessing import StandardScaler# 标准化数据,保证每个维度的特征数据方差为1,均值为...原创 2020-03-17 22:31:32 · 298 阅读 · 1 评论 -
K-Fold 交叉验证 (Cross-Validation)
交叉验证的目的: 在实际训练中,模型通常对训练数据好,但是对训练数据之外的数据拟合程度差。用于评价模型的泛化能力,从而进行模型选择。交叉验证的基本思想: 把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集(train set),另一部分做为验证集(validation set or test set),首先用训练集对模型进行训练,再利用验证集来测试模型的泛化误差。另外,现实中数...原创 2020-03-17 22:30:53 · 2248 阅读 · 2 评论 -
有关KL散度( Kullback–Leibler divergence)
前言注意两个名词的区别:相对熵:Kullback–Leibler divergence交叉熵:cross entropyKL距离的几个用途:① 衡量两个概率分布的差异。② 衡量利用概率分布Q 拟合概率分布P 时的能量损耗,也就是说拟合以后丢失了多少的信息,可以参考前面曲线拟合的思想。③ 对①的另一种说法,就是衡量两个概率分布的相似度,在运动捕捉里面可以衡量未添加标签的运动与已添加标签...原创 2020-03-17 22:30:10 · 255 阅读 · 0 评论