- 博客(13)
- 收藏
- 关注
原创 Pytorch 深度学习 第十一讲
CNN(高级篇)Inception 的内部构造1*1卷积的巧用1*1卷积层的巧用(可以使运算量级减少1/10,从而提升速度)关于模型各层的代码解读将这4个模块拼在一起
2022-02-20 16:13:56
666
原创 Pytorch 深度学习 第十讲
CNN原理图Feature Extraction 为特征提取层负责提取C1,S1,C2,S2的特征作为一个向量Classifiction 为分类器,将得到的向量进行全连接一般有RGB三种通道,C*W*H卷积过程,是数字与数字的相乘,并不是矩阵乘法每一个核都要配备一个通道,若通道有3个,则有3个核;若通道有5个,则有5个核;相应的如果想要有m个输出通道,则需要有m个核。即:卷积核通道数=输入通道数,卷积核个数=输出通道数import torchin_channels,
2022-02-18 11:48:51
748
原创 Pytorch 深度学习 第八讲
加载数据集import torchimport numpy as npfrom torch.utils.data import Datasetfrom torch.utils.data import DataLoader'''Dataset是一个抽象函数,不能直接实例化,所以我们要创建一个自己类,继承Dataset继承Dataset后我们必须实现三个函数:__init__()是初始化函数,之后我们可以提供数据集路径进行数据的加载__getitem__()帮助我们通过索引找到某个样
2022-02-17 10:52:23
854
原创 Pytorch 深度学习 第七讲
处理多维数据特征的输入关于一维特征的输入(也就是只有一个x)应该如何处理?比如下图这个预测一个人在一年之后得糖尿病的概率的例子,这个时候我们的输入将会有很多的指标。你可以把它看成是我们体检的各种值。最后一排的Y代表了他是否会得糖尿病。那么多维的特征输入应该怎么办呢?我们就需要把每一个特征x付以相应的权重。在进行逻辑回归时,把每一个维度的x乘相应的权值的和加上一个偏置量,送入sigmoid函数进行二分类,就像这样:import torchimport torch.nn.f.
2022-02-17 10:33:28
1061
原创 Pytorch 深度学习 第六讲
logistic regression 逻辑回归本节课的一些重点:此图为一些常用的激活函数的示例 2.逻辑回归是在线性回归基础上在最后的结果上乘了sigmoid(激活函数),也称为饱和函数3.二分类损失函数4.预测与标签越接近,BCE损失越小。np.linspace()的用法_nibidal的博客-优快云博客代码中在画图时有np.linespace()语句,在这里有关于此语句的解释import torch.nn# 引入Mnist数据集import tor...
2022-02-12 20:50:19
681
原创 Pytorch 深度学习 第五讲
用Pytorch完成线性回归以下是pytorch提供的优化器准备数据集 用类来设计模型 构造损失函数和优化器 训练循环(前向,反向,更新)import torchx_data = torch.Tensor([[1.0], [2.0], [3.0]])y_data = torch.Tensor([[2.0], [4.0], [6.0]])class LinearModel(torch.nn.Module): # 构造函数(初始化对象) def __init__(.
2022-02-11 22:56:16
913
原创 Pytorch 深度学习 第四讲
反向传播算法back propagation在反向传播中,w是所求的目标,x是输入,y_pred是输出,先正向求出loss值,再通过偏导数进行反向计算,最后计算出w的值类似于老师讲的这个例子,假设w张量为1,然后进行正向推导,得到loss值,进行反向求偏导。import torchx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]w = torch.tensor([1.0]) //w为张量w.requires_grad = True .
2022-02-10 11:41:48
994
2
原创 Pytorch深度学习 第三讲
代码说明:梯度下降算法1.在线性模型的改良下进行,深度学习算法中,并没有过多的局部最优点。2.随机梯度下降法在神经网络中被证明是有效的。效率较低(时间复杂度较高),学习性能较好。随机梯度下降法和梯度下降法的主要区别在于:1、损失函数由cost()更改为loss()。cost是计算所有训练数据的损失,loss是计算一个训练函数的损失。对应于源代码则是少了两个for循环。2、梯度函数gradient()由计算所有训练数据的梯度更改为计算一个训练数据的梯度。3、本算法中的随机梯度主要是指,
2022-02-08 22:43:52
94
原创 Pytorch 深度学习第二讲
第2讲 linear_model 源代码B站 刘二大人 ,传送门 《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili代码说明:1.此代码就是求均方方差的一个过程2、for循环中,使用了np.arange,第一个参数是起点,第二个是终点,第三个是步长。3、python中zip()函数的用法,Python 函数 | zip 函数详解_Amo Xiang的博客-优快云博客_zip函数import numpy as np //引用numpy包import matplo.
2022-02-08 11:30:45
127
原创 存储层次结构概述(包含策略)
L1高速缓存U B L2高UMRU 2nd 3rd LRU U A D B 访问VBD访问VL1先访问,L1中没有,把U替换为V。M-U因为包含策略:将L2中的B换为V,依照最近最久未使用的规则,再进行排序,类似队列,从左往右走一个,将V放置为MRU的位置。L2中M-B以此类推...
2021-12-09 22:40:05
116
原创 python爬虫(个人学习笔记)
在学习过程中是跟随https://www.bilibili.com/video/BV12E411A7ZQ?p=26&spm_id_from=pageDriver视频中的老师自己多写两遍也就熟悉了,主要还是字母的拼写的正确率还有缩行问题一.正则表达式相关知识一、校验数字的表达式1. 数字:^[0-9]*$2. n位的数字:^\d{n}$3. 至少n位的数字:^\d{n,}$4. m-n位的数字:^\d{m,n}$5. 零和非零开头的数字:^(0|[1-9][0.
2021-08-16 12:04:48
157
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人