
pytorch学习笔记
jstzwjr
这个作者很懒,什么都没留下…
展开
-
自定义学习率
自定义学习率原创 2022-07-22 10:24:01 · 386 阅读 · 0 评论 -
pytorch: fp16+梯度累加
python训练模型,fp16+梯度累加原创 2022-02-16 14:42:46 · 1103 阅读 · 0 评论 -
pytorch多模型异步推理
测试模型:resnet50和resnet101测试显卡:2080ti单独测试耗时:resnet50 24.4ms resnet101 48.22ms初始化种子和热机:为了保证每次验证的一致性,需要初始化种子,使得每次测试的输入数据保持一致,同时,为了准确统计时间,测试前先跑100次热机,然后再统计时间。第一种情况:两个模型串行跑#!/usr/bin/env python# -*- coding: utf-8 -*-# @Time : 2021/5/8 16:20# @A原创 2021-05-08 17:16:34 · 3587 阅读 · 4 评论 -
pytorch转onnx(支持动态batchsize、shape
以fcos模型为例,需要输出fpn的5个feature map,需要支持多个尺寸输出、不同batchsize1、转onnx模型import argparseimport os.path as ospimport warningsimport numpy as npimport onnximport onnxruntime as rtimport torchfrom mmcv import DictActionfrom mmdet.core import (build_model原创 2021-04-16 09:46:52 · 6054 阅读 · 1 评论 -
pytorch显存分配问题
取resnet50的4个stage的feature map并resize到256*256进行特征融合,出现显存溢出问题以最后一个fm为例,fm的shape为10*2048*8*8,占5M显存,resize后为10*2048*256*256,占5120M显存,即interpolate这一步操作就会给结果分配5G的显存,可以考虑在用完这个中间结果后使用del featuretorch.cuda.empty_cache()来手动释放资源虽然可以在一定程度上解决显存溢出的问题,但是在每次for原创 2021-04-15 15:02:48 · 1477 阅读 · 0 评论 -
根据神经网络中间层结果绘制heatmap
import cv2from torchvision.models.resnet import resnet18import torchfrom torchvision import transformsimport matplotlib.pyplot as pltimport numpy as np# img = np.zeros((256,256),dtype=np.uint8)# for r in range(16):# for c in range(16):...原创 2021-04-09 11:15:09 · 898 阅读 · 1 评论 -
如何把“自己的”网络中的conv2d替换为dcnv2
1、dcnv2的实现测试了两种,一种是官方版dcnv2,git链接:https://github.com/CharlesShang/DCNv2.git,编译直接cd到DCNv2,然后./make.sh即可,第二种是mmcv.ops.modulated_deform_conv.ModulatedDeformConv2dPack2、实验以resnet50、mnist训练为例from torch_op.common import init_seedfrom torchvision.datasets i原创 2020-10-15 09:16:16 · 6653 阅读 · 5 评论