- 博客(15)
- 收藏
- 关注
原创 【土堆pytorch实战】P23-24损失函数 反向传播 优化器
https://pytorch.org/docs/1.9.0/generated/torch.nn.L1Loss.html#torch.nn.L1LossMSE损失交叉熵损失(分类问题的损失函数)反向传播https://pytorch.org/docs/1.9.0/optim.html优化器根据梯度调整参数,以达到降低误差
2022-12-06 21:35:09
205
原创 【土堆 pytorch实战】P22神经网络搭建
卷积层1:输入H=32,kernel_size=5,dilation=1 输出H=32,代入公式得 32=32+2∗padding−4−1stride+132=\frac{32+2*padding-4-1}{stride}+132=stride32+2∗padding−4−1+1,所以当stride=1时,padding=2使用Sequential 搭建网络使用tensorboard显示
2022-12-05 14:34:12
271
原创 【土堆pytorch实战】P17-P21卷积池化线性层
https://pytorch.org/docs/1.9.0/generated/torch.nn.functional.conv2d.html#torch.nn.functional.conv2d2. 在数据集上使用卷积操作输入图像从[64,3,32,32] 经过卷积操作变成了[64,6,30,30]maxpool 也叫下采样maxunpool 也叫上采样最大池化作用:保留数据特征,减少数据量2.在数据集上使用最大池化操作非线性激活的目的是激活模
2022-12-04 15:57:19
576
原创 【土堆pytorch实战】P16 nn.Module
简单的神经网络框架,实现了output=input+1,因此代码输出的output=tensor(2.)
2022-12-04 10:06:11
498
原创 【SQL进阶教程】之自连接
二、自连接2.1可重排列、排列、组合笛卡尔积(直积)排列:元素按顺序排列组合:无序排列自连接:连接相同的表等值连接:使用等号=非等值连接:使用< >或者<或>#可重排列select P1.name as name_1,P2.name as name_2from Products P1,Products P2#排列(去掉相同元素构成的对,即(苹果,苹果)对select P1.name as name_1,P2.name as name_2from Produ
2022-05-26 10:15:24
2082
原创 【SQL笔记】之索引
索引:一、创建索引1.1create方式create index 索引名 on 表名(列名); #普通索引create unique index 索引名 on 表名(列名); #唯一索引create fulltext index 索引名 on 表名(列名) #全文索引create index 索引名 on 表名(列1,列2,...) #组合索引 索引不止一个列create index 索引名 on 表名(添加约束,比如以降序索引某个列中的值 列名 DESC)1.2alter
2022-05-20 22:27:56
135
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人