
莫烦pytorch学习
eefresher
这个作者很懒,什么都没留下…
展开
-
批量训练pytorch练习
利用pytorch框架训练,有一个重要步骤就是批量训练要用到torch.nn.data模块import torch.nn.data as Data创建一个TensorDataset对象存放训练数据x,ymydataset=Data.TensorDataset(x,y)创建一个DataLoader对象加载数据,设置dataset,batch_size,shuffle,num_work等...原创 2019-03-12 17:01:05 · 2248 阅读 · 0 评论 -
numpy打印格式化
楼主在可视化训练过程,讲numpy打印出来,但是直接打印小数点过多,影响视觉格式化打印numpy结果,做以下处理numpy.printoptions(precision,suppress=True)输入测试代码import numpy as npa = np.random.random(3)print('before set precision: \n',a)np.set_pri...原创 2019-03-12 21:57:14 · 3496 阅读 · 0 评论 -
python格式化输出【转】
1.  %      print (‘我叫%s, 身高%scm’  % (name,height))   ** 传入的值为元组%s :str() &am转载 2019-03-12 22:09:28 · 3471 阅读 · 0 评论 -
vgg16迁移学习transfer_learing
楼主最近学习莫烦大神的tensorflow教程,总结一下莫烦打大神如何把vgg16的参数权重迁移过来首先,下载好vgg16的参数和权重下载后,用numpy的load方法加载self.data_dict = np.load(vgg16_npy_path, encoding='latin1').item()自己定义卷积层时,固定卷积核参数为常数,从data_dict中提取def conv_...原创 2019-03-27 16:27:19 · 1614 阅读 · 3 评论 -
linux下ps命令查看某一进程开始时间,运行时间
楼主的实验室的服务器只有一块GPU,楼主在准备在实验室的服务器上跑深度学习训练代码的,发现有人捷足先登了,占用了gpu,,、于是楼主想看一下他什么时候开始占用的1.使用nvidia-smi命令,查看GPU使用情况nvidia-smi输出如下图,会显示GPU的使用信息,发现一个PID为37275的进程大量占用GPU内存2.使用top命令查看当前进程发现PID为37275的进程占用大量...原创 2019-04-06 16:35:36 · 20601 阅读 · 0 评论