
机器学习
文章平均质量分 73
本专栏机器学习中的一些知识
Jeaten
学习使你我快乐
展开
-
利用卷积神经网络实现手写字识别
本文我们介绍一下卷积神经网络,然后基于pytorch实现一个卷积神经网络卷积神经网络介绍让我们先复习一下神经网络的工作流程:搭建一个神经网络将要训练的数据(如图片)转换为神经网络能够识别的向量训练神经网络并实现预测然而,以上过程中,如果训练的是图片,而图片非常大(像素),则将图片转换成向量后的向量的维度将会非常大,这样会导致在训练网络的时候所需的神经元非常多,需要涉及到非常多参数的更新,也就导致了训练效果不好。计算机中,图片是以矩阵的形式存的,以以下mnist手写字为例,卷积神经网络实现原创 2021-11-15 16:44:41 · 15169 阅读 · 13 评论 -
利用神经网络实现手写字识别
神经网络介绍神经网络即多层感知机如果不知道感知机的可以看博主之前的文章感知机及Python实现神经网络实现及手写字识别关于数据集:从http://yann.lecun.com/exdb/mnist/下载,下载后将文件解压将main函数中的path改为下载文件的存储路径即可如果对数据集有问题,可以私信博主关于实现:基于pytorch实现,包括神经网络的构建,激活函数的选择归一化使用了像素值/255的方式实现,可以尝试用别的方式进行归一化处理import numpy as npi原创 2021-11-13 22:03:26 · 3892 阅读 · 3 评论 -
如何写一个神经网络
本文我们介绍如何利用python自己手写一个神经网络神经网络介绍神经网络其实很简单 —— 多层感知机,不懂感知机原理得可以看博主之前写的感知机及Python实现。正如感知机及Python实现中所描述的,感知机的权重 www 和偏置 bbb 很容易更新,但多层感知机的权重就更新就得靠求导工具了。这里我们使用pytorch中的求导工具来实现,至于神经网络权重更新的过程,还是和感知机一样。神经网络python实现我们用神经网络来模拟 y=x2y=x^2y=x2 的计算过程,以下为代码:import原创 2021-11-12 21:05:34 · 2064 阅读 · 0 评论 -
Python Lstm mask机制
Python Lstm mask机制我们在进行训练Lstm模型的时候可能会遇到这样的一个问题:特征的长度是不一样的,有的特征长度长,有的特征短,这可能会对我们训练模型造成困扰,本次分享如何解决这一问题:如题所示,使用的正是Mask机制,所谓Mask机制就是我们在使用不等长特征的时候先将其补齐,在训练模型的时候再将这些参与补齐的数去掉,从而实现不等长特征的训练问题。补齐的话使用sequence...原创 2020-03-21 16:13:14 · 3986 阅读 · 2 评论 -
Python Lstm库函数的调用
Python Lstm模型的调用import numpy as npfrom keras.models import Sequentialfrom keras.layers.core import Dense, Activation, Dropoutfrom keras.layers.recurrent import LSTMfrom keras.callbacks import Ear...原创 2019-11-25 14:12:58 · 9049 阅读 · 2 评论 -
生成模型和判别模型
生成模型判别模型原创 2020-12-03 22:08:04 · 684 阅读 · 0 评论 -
分类问题和回归问题
本文中涉及到的概念都是基于二分类问题在了解精确率和召回率之前,我们先了解几个概念TP(True Positive):实际为正,预测为正FN(False Negative):实际FP(False Positive)TN(True Negative)精确率召回率原创 2020-12-30 17:20:28 · 1096 阅读 · 0 评论 -
精确率和召回率
以下以二分类为例子进行说明在了解精确率和召回率之前,我们先了解几个概念TP(True Positive):实际为正,分类器预测为正FP(False Positive):实际为负,分类器预测为正TN(True Negative):实际为负,分类器预测为负FN(False Negative):实际为正,分类器预测为负精确率P=TPTP+FPP=\frac{TP}{TP+FP}P=TP+FPTP其表示分类器预测为正确的分类中究竟有多少是正确的召回率R=TPTP+FNR=\frac{TP}{T原创 2020-12-30 17:19:12 · 388 阅读 · 0 评论 -
损失函数
本篇我们来学习一下在机器学习中常用的损失函数文中我们用YYY表示实际值,f(X)f(X)f(X)表示预测值常用的损失函数有:0-1损失函数(0-1 loss function)L(Y,f(X))={1, Y≠f(X)0, Y=f(X)L(Y,f(X)) = \left\{ \begin{array}{l}1,\;\;Y \ne f(X)\\0,\;\;Y = f(X)\end{array} \right.L(Y,f(X))={1,Y=f(X)0,Y=f(X)实际值和预测值相原创 2020-11-27 18:41:30 · 436 阅读 · 0 评论 -
交叉验证法
当我们的数据集不够多的时候,我们该如何选取数据集来进行训练和测试模型呢?也许交叉验证法会是我们的选择...原创 2019-12-31 10:27:29 · 819 阅读 · 0 评论 -
如何理解贝叶斯
如何理解贝叶斯“还不睡?”,室友小憨憨在昨晚十二点多的时候问我。“你先睡吧,我写个bug”,小憨憨一顿操作,关了灯放下了手机,我知道我明天起来又见不到他了。和小憨憨成为室友以来四百多天里,我起得比他早的次数一只手数得过来。好吧,我承认没有写bug,写了个理论上快点的程序,一跑竟然比对比程序慢了60多倍。。。这怎么能忍?于是在小憨憨关了灯后我也轻轻地将台灯开到了最暗,调起了我的bug;时间,一...原创 2020-01-04 22:20:43 · 346 阅读 · 2 评论 -
朴素贝叶斯原理及python实现
朴素贝叶斯原理及其python实现朴素贝叶斯原理贝叶斯的python实现import numpy as npdef judge(actual,prediction): ''' 该函数用于判断实际值和预测值是否一致 :param actual: 实际值 :param prediction: 预测值 :return: 如果实际值和预测值一致,返回为Tr...原创 2020-01-05 16:42:16 · 564 阅读 · 0 评论 -
感知机及Python实现
本文将讲解感知机的原理以及笔者使用Python语言对其的实现:感知机原理 什么叫感知机呢? 在李航老师《统计学习方法》中是这么讲的:“感知机(perception)是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1和-1二值。” 从定义我们可以看出,感知机其实就是能够实现一个二分类问题的表达式或函数。关于二分类问题,是指问题只可以被分为两类的问题,比如人类从性...原创 2019-09-23 13:31:29 · 4080 阅读 · 13 评论 -
k近邻原理及其python实现
kNN原理及其python实现k-NN(k-nearest neighbor),从英语翻译过来就是k个最接近的邻居;我们现在只要有k和最接近这两个概念就行了。接下来笔者将详细介绍其原理,并用python实现k-NN。kNN原理k近邻法由Cover和Hart P在1967年提出的一种分类和回归的方法[1]。(分类和回归的区别:分类为离散的:从某几个特征决定一个特征,回归为连续的:一串数决定一...原创 2020-01-03 16:03:25 · 328 阅读 · 0 评论