深度学习
文章平均质量分 92
关于机器学习与深度学习的学习内容
jasneik
虽然快奔4了,但抵挡不信对图像处理与人工智能的技术狂热的追求。
不在工作中暴发,就是学习中暴发。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
pytorch 正向与反向传播的过程 获取模型的梯度(gradient),并绘制梯度的直方图
记录一下怎样pytorch框架下怎样获得模型的梯度文章目录引入所需要的库一个简单的函数模型梯度获取先定义一个model如下定义两个获取梯度的函数定义一些过程与调用上述函数的方法可视化一下梯度的histogram引入所需要的库import osimport torchimport torch.nn as nnimport torch.nn.functional as Ffrom collections import OrderedDict一个简单的函数z=3y2=3(x+2)2z = 3y原创 2022-04-12 21:16:00 · 6821 阅读 · 3 评论 -
Pytorch 自定义激活函数前向与反向传播 ReLu系列 含优点与缺点
pytorch 自定义relu 函数的前向传播与反向传播函数原创 2022-04-04 21:43:00 · 4261 阅读 · 2 评论 -
Pytorch 自定义激活函数前向与反向传播 Tanh
看完这篇,你基本上可以自定义前向与反向传播,可以自己定义自己的算子文章目录Tanh公式求导过程优点:缺点:自定义Tanh与Torch定义的比较可视化import matplotlibimport matplotlib.pyplot as pltimport numpy as npimport torchimport torch.nn as nnimport torch.nn.functional as F%matplotlib inlineplt.rcParams['figure.fi原创 2022-04-04 16:02:02 · 3399 阅读 · 0 评论 -
Pytorch 自定义激活函数前向与反向传播 sigmoid
文章目录Sigmoid公式求导过程优点:缺点:自定义Sigmoid与Torch定义的比较可视化import matplotlibimport matplotlib.pyplot as pltimport numpy as npimport torchimport torch.nn as nnimport torch.nn.functional as F%matplotlib inlineplt.rcParams['figure.figsize'] = (7, 3.5)plt.rcPar原创 2022-04-04 13:49:18 · 2625 阅读 · 0 评论 -
深度学习中的一些常见的激活函数集合(含公式与导数的推导)sigmoid, relu, leaky relu, elu, numpy实现
深度学习常用激活函数 公式与导数的推导过程,sigmoid, relu, leaky relu(p relu), elu, sgn等原创 2022-04-03 10:17:52 · 1801 阅读 · 0 评论 -
Pytorch 学习率衰减 之 余弦退火与余弦warmup 自定义学习率衰减scheduler
import mathimport matplotlib.pyplot as pltimport numpy as npimport torchimport torch.nn as nnfrom torch.optim import *from torchvision import modelsclass Net(nn.Module): def __init__(self): super(Net,self).__init__() self.fc = n原创 2022-03-26 17:26:46 · 11687 阅读 · 5 评论 -
PyTorch训练中Dataset多线程加载数据,比Dataloader里设置多个workers还要快
PyTorch训练中Dataset多线程加载数据,而不是在DataLoader背景与需求现在做深度学习的越来越多人都有用PyTorch,他容易上手,而且API相对TF友好的不要太多。今天就给大家带来最近PyTorch训练的一些小小的心得。大家做机器学习、深度学习都恨不得机器卡越多越好,这样可以跑得越快,道理好像也很直白,大家都懂。实际上我们在训练的时候很大一部分制约我们的训练的速度快慢被IO限制住了,然面CPU的利用率却不高,就算有8卡了,然而GPU的利用率却长期处理低水平,不能发挥设备本应该有的水平原创 2021-10-17 11:17:36 · 10143 阅读 · 0 评论 -
AI+无线通信——Top7 (Baseline)分享与总结
从浩哥那里转载 https://wanghao.blog.youkuaiyun.com/article/details/115813954比赛已经告一段落,现在我们队兑现承诺,将比赛方案开源给大家,互勉互助,共同进步。队伍介绍我们的队伍名是Baseline,我们因分享Baseline结缘,所以就把队伍名叫Baseline。队长: 方曦来自上海交通大学,研三。队员 :吕晓欣来自网易,AI工程师队员:王浩来自北京星河亮点,软件研发队员:杨新达来自广州一家企业,AI工程师方案摘要对于当前通信系统来说,物理转载 2021-04-18 16:39:32 · 3342 阅读 · 0 评论 -
MNIST 手写数字识别,我是如何做到886个可训练参数,识别率达到98.2%? (参数、模型压缩), Keras实现,模型优化
一 项目展示下面可以看到验证集可以到了0.9823了,实际上,在下面的另外一个训练,可以得到0.9839,我保守的写了0.982二 项目参数展示我们先来看看LeNet 5 的结构与参数,参数有61,706个。这个是我用keras写的,可以看到参数只有886个。项目代码我们来看一下模型的代码,模型由传统卷积改成了可分离卷积;这里padding 主要是为了后面降维方便而设置这里设置了5层卷积,是考虑到如果层数比较少的话,感受野比较小,增加卷积层,从而增加感受野(我觉得感受野,这时候比模型原创 2020-10-15 13:25:34 · 1038 阅读 · 3 评论
分享