
机器学习笔记
文章平均质量分 89
记录自己和机器学习故事
是Dream呀
全网粉丝10w+,优快云、稀土掘金人工智能签约作者、专家博主,华为云十佳博主,985人工智能硕士。一万次悲伤依然会有Dream,我一直在最温暖的地方等你!
精通撰文推广有任何需求我都可以帮助到您— —学习交流|商务合作|粉丝福利:https://bbs.youkuaiyun.com/topics/614347534
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
神经网络:卷积神经网络中的BatchNorm
在机器学习中让输入的数据之间相关性越少越好,最好输入的每个样本都是均值为0方差为1。在输入神经网络之前可以对数据进行处理让数据消除共线性,但是这样的话输入层的激活层看到的是一个分布良好的数据,但是较深的激活层看到的的分布就没那么完美了,分布将变化的很严重。这样会使得训练神经网络变得更加困难。所以添加BatchNorm层,在训练的时候BN层使用batch来估计数据的均值和方差,然后用均值和方差来标准化这个batch的数据,并且随着不同的batch经过网络,均值和方差都在做累计平均。原创 2024-02-14 19:38:09 · 1905 阅读 · 4 评论 -
机器学习:Pooling层作用及反向传播
CNN网络在反向传播中需要逐层向前求梯度,然而,那它是如何进行反向传播的呢?此外,CNN中为什么要加pooling层,它的作用是什么?原创 2024-02-14 19:32:02 · 2396 阅读 · 0 评论 -
机器学习:卷积介绍及代码实现卷积操作
传统卷积运算是将卷积核以滑动窗口的方式在输入图上滑动,当前窗口内对应元素相乘然后求和得到结果,一个窗口一个结果。,所以可以将每个窗口内的元素拉成向量,通过向量内积进行运算,多个窗口的向量放在一起就成了矩阵,每个卷积核也拉成向量,多个卷积核的向量排在一起也成了矩阵,于是,卷积运算转化成了矩阵乘法运算。原创 2024-02-13 22:33:23 · 1495 阅读 · 2 评论 -
机器学习:BN层介绍及深入理解
BN在深度网络训练过程中是非常好用的trick,在笔试中也很常考,而之前只是大概知道它的作用,很多细节并不清楚,因此希望用这篇文章彻底解决揭开BN的面纱。原创 2024-02-13 22:33:15 · 3613 阅读 · 0 评论 -
机器学习:过拟合和欠拟合的介绍与解决方法
过拟合和欠拟合的表现和解决方法。其实除了欠拟合和过拟合,还有一种是,适度拟合就是我们模型训练想要达到的状态,不过适度拟合这个词平时真的好少见。原创 2024-02-11 21:57:07 · 2311 阅读 · 14 评论 -
机器学习:Softmax介绍及代码实现
对于k维向量z来说,其中zi∈Rzi∈R,我们使用指数函数变换可以将元素的取值范围变换到(0,+∞)(0,+∞),之后我们再所有元素求和将结果缩放到[0,1],形成概率分布。所以我们在函数实现时利用其性质:先对输入数据进行处理,之后再利用计算公式计算。Softmax函数用于将分类结果归一化,形成一个概率分布。作用类似于二分类中的Sigmoid函数。常见的其他归一化方法,如max-min、z-score方法并不能保证各个元素为正,且和为1。对于一个k维向量z,我们想把这个结果转换为一个k个类别的概率分布。原创 2024-02-11 21:53:01 · 2141 阅读 · 4 评论 -
机器学习:SVM、softmax、Dropout及最大池化max_pool介绍
W: (3072, 10), 重新reshape到(32, 32, 3, 10)最后的10代表10个分类器,前面的就是每个分类器可视化的结果,它像是每个类别的所有图像的一个模板(取了平均值,因为只有数值相近的时候平方才最大),如果某个类别的分数较高,那么它就越接近这个类图片的模板。Dropout可以有效地抑制过拟合,一般来说神经元失活的概率越大在训练集上和在验证集上的区别就越小,但是较大的失活概率会导致神经网络的容量下降,更难拟合数据。在前向传播的过程中注意保存中间数据,为了反向传播的时候方便计算。原创 2024-02-10 19:54:15 · 2016 阅读 · 6 评论 -
BatchNorm介绍:卷积神经网络中的BN
在机器学习中让输入的数据之间相关性越少越好,最好输入的每个样本都是均值为0方差为1。在输入神经网络之前可以对数据进行处理让数据消除共线性,但是这样的话输入层的激活层看到的是一个分布良好的数据,但是较深的激活层看到的的分布就没那么完美了,分布将变化的很严重。这样会使得训练神经网络变得更加困难。所以添加BatchNorm层,在训练的时候BN层使用batch来估计数据的均值和方差,然后用均值和方差来标准化这个batch的数据,并且随着不同的batch经过网络,均值和方差都在做累计平均。原创 2024-02-10 19:52:32 · 1903 阅读 · 4 评论 -
机器学习(九):朴素贝叶斯算法
机器学习(九):朴素贝叶斯算法原创 2022-10-02 13:20:49 · 2198 阅读 · 1 评论 -
机器学习(八):模型选择与调优
机器学习(八):模型选择与调优原创 2022-08-27 15:34:27 · 2227 阅读 · 2 评论 -
零基础学Python--机器学习(四):特征提取
零基础学Python--机器学习(四):特征提取原创 2022-08-17 10:37:07 · 1801 阅读 · 0 评论 -
零基础学Python--机器学习(二):机器学习算法和开发
零基础学Python--机器学习(二):机器学习算法和开发原创 2022-08-11 23:31:55 · 1820 阅读 · 1 评论 -
机器学习(七):sklearn转换器估计器及K-近邻算法
机器学习(七):sklearn转换器估计器及K-近邻算法原创 2022-08-25 19:48:13 · 1526 阅读 · 0 评论 -
零基础学Python--机器学习(三):数据集及特征工程介绍
零基础学Python--机器学习(三):数据集及特征工程介绍原创 2022-08-13 15:25:30 · 1937 阅读 · 2 评论 -
机器学习(六):特征降维和主成分分析法
机器学习(六):特征降维和主成分分析法原创 2022-08-19 17:12:31 · 2307 阅读 · 3 评论 -
零基础学Python--机器学习(五):特征预处理
零基础学Python--机器学习(三):特征预处理原创 2022-08-18 18:28:19 · 1455 阅读 · 0 评论 -
零基础学Python--机器学习(一):人工智能与机器学习概述
零基础学Python--机器学习(一):人工智能与机器学习概述原创 2022-08-06 19:01:15 · 1767 阅读 · 4 评论 -
机器学习(四):决策树
机器学习(四):决策树原创 2022-04-15 19:38:12 · 3898 阅读 · 2 评论 -
机器学习(三):线性模型
机器学习(三):线性模型原创 2022-04-11 17:58:29 · 3242 阅读 · 2 评论 -
机器学习《Machine Learning》----(2)模型评估与选择
机器学习《Machine Learning》----(2)模型评估与选择原创 2022-04-10 17:17:11 · 3681 阅读 · 0 评论 -
机器学习《Machine Learning1》----机器学习经典总结:入门必读
机器学习《Machine Learning1》----机器学习经典总结:入门必读原创 2022-03-13 11:27:56 · 3486 阅读 · 8 评论