- 博客(10)
- 收藏
- 关注
原创 深度学习初探/02-Pytorch知识/06-拼接与拆分
深度学习初探/02-Pytorch知识/06-拼接与拆分一、合并1、cat场景:两个老师分别统计班级成绩,现需将两位老师统计的数据进行合并。A老师统计class 1-4 ⇒\Rightarrow⇒ [class1-4, students, scores];B老师统计class 5-9 ⇒\Rightarrow⇒ [class 5-9, students, scores]。a = torch.rand(4, 32, 8)b = torch.rand(5, 32, 8)# 将a和b在dime
2021-03-15 17:21:27
175
原创 深度学习初探/02-Pytorch知识/05-Broadcast自动维度扩展
深度学习初探/02-Pytorch知识/05-Broadcast自动维度扩展一、特点expand automatically without copying data二、实现方法:1、从最后 (后面的dim默认为小维度) 开始对齐,匹配dimension,如果发生dim缺失,就在前面插入一个长度=1的dim;2、将新dim的长度从1 expand to the same lengthe.g.f.shape = [4, 32, 14, 14]bias.shape = [32]step1
2021-03-15 10:09:15
226
原创 深度学习初探/02-Pytorch知识/04-Tensor维度变换
深度学习初探/02-Pytorch知识/03-Tensor维度变换一、View和reshape两者完全一致,reshape是pytorch为了保持与numpy的一致性而出现的
2021-03-14 14:57:23
202
原创 深度学习初探/02-Pytorch知识/03-Tensor索引
深度学习初探/02-Pytorch知识/03-Tensor索引与切片一、Tensor的索引1、普通索引方式感觉和C语言中数组索引很像,基本上是按照下标来的。比如现在创建一个CNN的4维输入数据[batch,通道数, height, width],并对其进行索引,打印一些信息:In: a = torch.rand(6, 3, 28, 28) print(a[0].shape)Out: torch.Size([3, 28, 28])In: print(a[0, 0, 2])Out:tenso
2021-03-12 20:55:00
244
原创 深度学习初探/02-Pytorch知识/02-创建Tensor
深度学习初探/02-Pytorch知识/02-创建Tensor一、从Numpy转化而来二、从List转化而来三、生成未初始化的数据(即仅申请内存空间)
2021-03-12 15:09:10
395
原创 深度学习初探/01-回归问题/3-手写数字识别
深度学习初探-01回归问题-3手写数字识别一、MNIST数据集MNIST数据集中,有0~9共10个数字的图像数据;每个数字有7k张图片(train/test splitting:6k vs 1k),每张图片采用28px*28px的矩阵格式存储;每个像素点取值为[0,1],表示灰度值(0白,1黑)。对于每张图片,都进行【flat平坦化】操作,使其由二维转为一维,即矩阵由[28,28]⇒[1,784][28,28]\Rightarrow[1,784][28,28]⇒[1,784]。flat平坦化的优点
2021-03-07 17:29:03
290
原创 深度学习初探/01-回归问题/2-Linear Regression实战
深度学习初探/01-回归问题/2-Linear Regression实战
2021-02-15 11:17:31
217
原创 深度学习初探/01-回归问题/1-梯度下降算法Gradient Decent
深度学习初探/01-回归问题/梯度下降算法Gradient Decent一、梯度下降算法的本质通过迭代计算,不断调整xxx的取值,从而求得函数的“极小值”二、梯度下降算法的具体实现(类似于“二分查找”)【x1x_1x1】为每次迭代后所求得的“下一步xxx值”;【x0x_0x0】为“当前xxx值”;【f′(x0)f'(x_0)f′(x0)】为“f(x)f(x)f(x)在点x0x_0x0处的导数值”【LR】Learning Rate,即学习速率,用于控制每一次迭代的“步长Step”,避免每
2021-02-04 22:00:41
152
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人