
pytorch突击
ClFH
new 一个未来
展开
-
常见损失函数_Pytorch实现
常见损失函数1、基本用法2、损失函数2.1、L1范数损失(L1_loss)2.2、均方误差损失 MSELoss2.3、交叉熵损失 CrossEntropyLoss2.4、KL 散度损失 KLDivLoss2.5、二进制交叉熵损失 BCELoss2.6、平滑版L1损失 SmoothL1Loss2.7、BCEWithLogitsLoss2.8、MarginRankingLoss2.9、HingeEmbeddingLoss2.10、2分类的logistic损失 SoftMarginLoss2.11、多标签分类损失转载 2020-12-11 16:21:54 · 657 阅读 · 0 评论 -
深度学习_损失函数(MSE、MAE、SmoothL1_loss...)
@TOC总结对比MSE损失函数,MAE损失函数以及Smooth L1_loss损失函数的优缺点1、常见的MSE、MAE损失函数1.1、均方误差MSE均方误差(Mean Square Error,MSE)是回归损失函数中最常用的误差,它是预测值f(x)与目标值y之间差值平方和的均值,其公式如下所示:下图是均方误差值的曲线分布,其中最小值为预测值为目标值的位置。我们可以看到随着误差的增加损失函数增加的更为迅猛。优点:MSE的函数曲线光滑、连续,处处可导,便于使用梯度下降算法,是一种常用的损失函原创 2020-12-11 15:48:10 · 86512 阅读 · 3 评论 -
pytorch-18-batch_norm
batch_norm原创 2020-08-15 10:42:42 · 190 阅读 · 0 评论 -
pytorch-17-卷积&pooling&upsample
卷积&pooling&upsample1、卷积2、pooling&upsample1、卷积权值共享,减少参数量局部相关2、pooling&upsample原创 2020-08-14 14:42:43 · 303 阅读 · 0 评论 -
pytorch-13-激活函数&GPU加速&测试
激活函数与GPU加速&测试1、激活函数2、GPU加速3、测试1、激活函数很少用的激活函数:Relu改进版2、GPU加速代码如下import torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimfrom torchvision import datasets, transformsbatch_size=200learning_rate原创 2020-08-14 09:38:42 · 478 阅读 · 0 评论 -
pytorch-16-减轻overfiting&动量&学习率衰减&early stop&dropout
1、Regularization2、动量3、early stop4、dropout原创 2020-08-13 12:47:30 · 241 阅读 · 0 评论 -
pytorch-15-Train_Val_Test&交叉验证
import torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimfrom torchvision import datasets, transformsbatch_size=200learning_rate=0.01epochs=10train_db = datasets.MNIST('./data', train=True, download=...原创 2020-08-13 09:38:23 · 690 阅读 · 0 评论 -
pytorch-14-Visdom可视化
运行程序之前,先开启服务器原创 2020-08-13 08:55:52 · 190 阅读 · 1 评论 -
pytorch-12-多分类实战
多分类实战1、使用低层函数的操作2、使用高阶API实现1、使用低层函数的操作实战代码import torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimfrom torchvision import datasets, transformsbatch_size=200learning_rate=0.01epochs=10train_loader =原创 2020-08-12 09:47:13 · 729 阅读 · 0 评论 -
pytorch-11-2D函数优化实例&交叉熵
2D函数优化实例&Logistic Regression1、2D函数优化实例2、交叉熵1、2D函数优化实例import numpy as npfrom mpl_toolkits.mplot3d import Axes3Dfrom matplotlib import pyplot as pltimport torchdef himmelblau(x): return (x[0] ** 2 + x[1] - 11) ** 2 + (x[0] + x[1]原创 2020-08-12 00:37:36 · 279 阅读 · 0 评论 -
pytorch-10-感知机&链式法则&反向传播
感知机原创 2020-08-11 23:50:39 · 348 阅读 · 0 评论 -
pytorch-9-激活函数、loss及其梯度
激活函数及其梯度1、激活函数及其梯度2、loss及其梯度1、激活函数及其梯度不可导的激活函数(阶梯函数)可导的激活函数sigmoidtanhRelu(很好用)极大的减轻了梯度离散、梯度爆炸现象2、loss及其梯度求导:方法一-求导:方法二分类激活函数:softmax...原创 2020-08-10 00:03:48 · 320 阅读 · 0 评论 -
pytorch-8-梯度
梯度1、什么是梯度2、常见函数梯度1、什么是梯度局部最小值鞍点初始化learning rate动量2、常见函数梯度原创 2020-08-09 23:05:09 · 141 阅读 · 0 评论 -
pytorch-7-高阶op
高阶op原创 2020-08-09 22:21:30 · 236 阅读 · 0 评论 -
pytorch-6-基本运算&数据统计
数学运算1、数学运算2、数据统计1、数学运算2、数据统计常见统计属性原创 2020-08-09 22:03:10 · 203 阅读 · 0 评论 -
pytorch-5-Broadcast自动扩展+tensor的拼接&拆分
Broadcast自动扩展+tensor的拼接&拆分1、Broadcasting1、拼接与拆分1、BroadcastingExpand 进行维度扩展,但它是自动扩展without copying data 不需要拷贝数据,节省数据空间1、拼接与拆分合并:cat、stack拆分:split、chumk按len长度来拆分按num数量拆分...原创 2020-08-09 17:42:39 · 379 阅读 · 0 评论 -
pytorch-4-tensor维度变换
tensor维度变换原创 2020-08-07 11:13:56 · 192 阅读 · 0 评论 -
pytorch-3-索引与切片
索引与切片索引索引原创 2020-08-06 14:46:51 · 143 阅读 · 0 评论 -
pytorch-2-pytorch基本数据类型与tensor
基本类型数据以及创建1、pytorch数据类型检查数据类型数据部署在CPU和GPU上面的区别dimension为0:标量dim为1:向量2、pytorch数据类型的创建创建一个tensor正态分布 randn1、pytorch数据类型检查数据类型数据部署在CPU和GPU上面的区别dimension为0:标量dim为1:向量2、pytorch数据类型的创建创建一个tensor正态分布 randn...原创 2020-08-06 14:12:49 · 223 阅读 · 0 评论 -
pytorch-1-linear_regression
linear_regression实战_梯度下降求解二元一次方程组(线性回归)1、计算损失2、计算梯度3、循环迭代(iterate to optimize)4、训练5、结果实战_梯度下降求解二元一次方程组(线性回归)1、计算损失import numpy as np# y = wx + bdef compute_error_for_line_given_points(b, w, points): totalError = 0 for i in range(0, len(point原创 2020-08-06 09:53:59 · 272 阅读 · 0 评论