
机器学习与深度学习
文章平均质量分 83
王富贵Wang
本人已死有事烧纸
展开
-
【机器学习评价指标 准确率 召回率 F1-score F2-score】
机器学习评价指标原创 2022-10-05 21:54:46 · 2295 阅读 · 2 评论 -
第五周:卷积神经网络(CNN)的反向传播
上一个博客描述了CNN的整个过程(链接https://editor.youkuaiyun.com/md/?articleId=120914867),这一个博客来说一下池化层(Sampling)反向传播和卷积层的反向传播的公式是怎么来的 1.池化层反向传播 池化层的反向传播就是已知后一层池化层矩阵的误差梯度,推前一层矩阵的误差梯度。 最大池化的正向传播如下: 以上图最大池化举例,池化后的数字6对应于池化前的红色区域,实际上只有红色区域中最大值数字6对池化后的结果有影响,权重为1,而其它的数字对池化后的结果影响都为0。假原创 2021-10-31 09:49:24 · 4090 阅读 · 0 评论 -
第二周:Means无监督聚类
Means无监督聚类 kmeans的实例(用于理解kmeans): 在有黑人,白人,黄种人的种群中,分类器开始对他们分类,可能根据他们的皮肤颜色,鼻子高低,头发颜色等一些属性来对他们聚类,分类器训练完成,但不知道他们是不是叫黑人,白人,黄种人,只知道有这么三个簇,当让分类器再次区分一个人他是那一类,分类器会根据这个人的特征跟哪一个簇中的人的特征相似而把这个人分到那个簇中,但是并不会明白这个人叫什么人种。 java代码: 全部代码: package kmeans; import java.io.FileNo原创 2021-09-28 09:53:39 · 169 阅读 · 0 评论 -
机器学习与深度学习第一周2:bp神经网络原理
我对bp神经网络的原理来自于啃这里的代码:链接 https://www.cnblogs.com/charlotte77/p/5629865.html bp神经网络的基本原理(BackPropagation) 对神经网络层各层的基本数据初始化 初始化神经网络各层的权重,根据随机数生成器进行先随机生成权重,这里的权重会依据后面的训练而调整。 输入数据的确定,输出数据的确定。例如分类问题就是输入对象的属性,确定好输出数据,输出数据是表示所有标签的概率的数组,概率最大的标签的值为预测的值,则给该输入的对象打上该原创 2021-09-18 23:30:41 · 253 阅读 · 1 评论 -
机器学习与深度学习第一周1:k-近邻算法(监督学习)
1.KNN(k-近邻算法)的例子 knn基本原理: 处理数据:将描述具体对象的属性和标签数据化。例如,如下的例子中,是已经处理好的的把电影的信息,把电影信息处理成了坐标上的点的横纵坐标。 用k-近邻算法的距离公式(test对象属性1的值−已知第i个i训练数据的属性1的值)2+...+(test对象属性m的值−已知第i个训练数据的属性m的值)2(test对象属性1的值-已知第i个i训练数据的属性1的值){^2}+...+(test对象属性m的值-已知第i个训练数据的属性m的值){^2}(test对象属性1的原创 2021-09-18 22:34:46 · 206 阅读 · 1 评论