- 博客(22)
- 收藏
- 关注
原创 MySQL第6讲 普通索引和唯一索引,应该怎么选择?
1. 举个栗子;2. 查询/搜索过程;3. 更新过程;1) change buffer;2)唯一索引和普通索引怎么使用change buffer?;3)change buffer的适用场景;4)你是不是觉得change buffer和redo log很像;
2022-07-13 20:05:15
668
原创 MySQL第5讲 锁机制 全局锁、表锁、行锁详解
1. 全局锁2. 表级锁1)表锁2)元数据锁(meta data lock, MDL)3. 行锁1)在InnoDB事务中什么时候加行锁,什么时候释放锁?——两阶段锁2)怎么减少行锁对性能的影响
2022-07-12 16:47:54
1284
原创 MySQL第4讲 索引 三种索引模型和联合索引详解
介绍三种常见的索引模型:哈希表,有序数组,搜索树。以及从覆盖索引、最左前缀原则和索引下推三方面讲解联合索引
2022-07-09 16:24:48
676
原创 MySQL第2讲 一条SQL更新语句是如何执行的?与redo log和bin log日志有什么关系?
sql更新语句的执行过程类似于查询语句,会经过上述过程,但是更新需要记录日志——redo(重做日志)和binlog(归档日志)。这两个日志在更新语句过程中,起到了什么作用呢?
2022-07-09 16:18:20
305
原创 MySQL第1讲 一条SQL查询语句是如何执行的?【简述】
连接器——查询缓存(可选——分析器,解析SQL语句,词法分析和语法分析——优化器,决定执行方案——执行器,调用引擎接口执行语句并判断有无权限——存储引擎,而存储引擎层负责数据的存储和提取,提供读写接口ps:以上内容参考极客时间mysql45讲,以及自己的一些理解,如有错漏之处欢迎指出...............
2022-07-09 15:54:13
307
原创 语义分割之FCN网络详解 全卷积网络
Backbone用的是VGG16(pytorch实现用的是Resnet),将原来的卷积网络的最后两层(全连接和池化)去掉,替换为1X1的卷积和转置卷积。在原来的分类网络中,全连接层的大小限制了图像的输入,因为全连接层的需要固定输入和输出,而卷积层不需要,所以考虑将全连接转换为卷积。
2022-04-19 14:38:52
6660
1
原创 pytorch 深度学习实践 第12讲 循环神经网络高级篇 Basic RNN
第12讲 循环神经网络高级篇 Basic RNNpytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及源码,笔记纯属个人理解 。全连接网络以前也叫做稠密网络Dense 或者 深度网络Deep——DNN1. RNN的基本概念处理序列化输入理解1一个RNN Cell将一个多维向量映射成不同维数的向量,本质上相当于是一个线性层。如图所示理解2展开来看,就是前面特征的输入经过RNN Cell层之后的输出h1(隐藏层
2021-09-22 19:42:00
677
2
原创 pytorch 深度学习实践 第11讲 卷积神经网络高级篇 CNN
第11讲 卷积神经网络高级篇 Advanced CNNpytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及源码,笔记纯属个人理解,如有错误欢迎路过的大佬指出 。1. GoogleNet网络结构如图所示,GoogleNet,常被用作基础主干网络,图中红色圈出的一个部分称为Inception块。2. Inception Module解析不知道选取什么kernel,将卷积核都使用一遍,对效果比较好的卷积核赋予更高的权重,将
2021-09-01 13:40:10
777
原创 pytorch 深度学习实践 第10讲 卷积神经网络(基础篇)_代码
pytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili视频中所涉及的代码如下:basic_cnn.py 一个简单的卷积层padding.py 卷积层参数——padding填充stride.py 参数——步长maxpooling.py 下采样——最大池化cnn.py 一个简单的卷积神经网络cnn_job.py 作业——修改网络结构1. basic_cnn.py 一个简单的卷积层 示范卷积层所做的工作import torchin_c
2021-08-24 20:27:29
743
原创 pytorch 深度学习实践 第10讲 卷积神经网络(基础篇)
pytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及小练习源码,本节代码有点多,另外单独写的笔记纯属个人理解,如有错误欢迎路过的大佬指出 。1. 基本概念全连接网络全连接层:像前几节中的用到的线性层那样的网络层,称为全连接层。也就是线性层中的每一个输入结点都会参与下一层任何一个输出结点的计算上,这样的线性层叫做全连接层。如果整个网络都是用这种全连接层连接在一起的,那就称为全连接网络。卷积神经网路直接对图像
2021-08-24 17:43:06
610
原创 pytorch 深度学习实践 第8讲 加载数据集
前言:dataset——构造数据集,数据集应该支持索引操作;dataloader——为训练提供mini-batch数据
2021-08-18 09:44:52
627
5
原创 pytorch 深度学习实践 第7讲 处理多维特征输入
本文从logistic 回归模型来讲解了多维特征输入的处理,具体内容包括多维logistic的模型讲解,生成多层神经网络的简单原理和过程,以及最后的代码实现。
2021-08-16 22:15:18
770
原创 pytorch 深度学习实践 第6讲 逻辑斯蒂回归
第6讲 逻辑斯蒂回归logistic regressionpytorch学习视频——《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及视频中的手敲源码,可能会有些许改动,笔记纯属个人理解,如有错误勿介或者欢迎路过的大佬指出 。1. torchversion数据集# mnist数据集,手写数字识别mnist_train_set = torchvision.datasets.MNIST(root='./dataset/mnist', train=Tru.
2021-08-16 14:04:33
739
4
原创 pytorch 深度学习实践 第5讲 pytorch实现线性回归
第5讲 pytorch实现线性回归Linear Regression with PyTorchpytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及小练习源码,笔记纯属个人理解,如有错误勿介或者欢迎路过的大佬指出 。目录1. 构造神经网络一般步骤2. 第一步——准备数据集 prepare dataset3. 第二步——模型设计4. 第三步——构造损失函数和优化器4. 第四步——训练5. 本节代码..
2021-08-13 11:32:49
2133
1
原创 pytorch 深度学习实践 第4讲 反向传播
1. 一个简单的神经网络两层,都是线性模型。存在一个问题是这个神经网络可以直接通过化简最终变成一层(权重训练失去了意义),如图公式。为了防止这种情况发生,在每一层网络输出时加入一个非线性函数(即激活函数),来阻止这种化简。2. 反向传播由输出(损失函数)来调整输入(权重)的过程在如下单层网络中,已知由损失函数对输出Z的偏导∂L∂z\frac{\partial L}{\partial z}∂z∂L(也是由loss求偏导一层一层传回来的),一层一层传播求出损失函数对该层网络的输入x和W的偏导(
2021-08-10 17:51:13
899
3
原创 pytorch 深度学习实践 第三讲 梯度下降算法
以下是视频内容的个人笔记,主要是梯度下降算法的理解和简单公式实例,以及两个视频中的小练习源码,如有错误请指出,三扣。
2021-08-07 18:14:21
1053
2
原创 pytorch 深度学习实践 第二讲 线性模型
pytorch学习视频——B站视频链接:《PyTorch深度学习实践》第二讲 线性模型主要包括两个源码文件(视频中的练习和作业),内容包括线性模型的训练和三维作图,主要用到zip函数,meshgrid函数三维作图。源代码:1. linear_model.py 手敲源码2.作业 linear_job
2021-08-04 11:31:12
729
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人