
研一
月与山与我
这个作者很懒,什么都没留下…
展开
-
安装ammdet的过程
建议mmdet和ammdet分两个容器放,不然在使用两套代码时需要分别编译。安装的包 pypi.org下载torch==1.1.0pillow==5.4.1 opencv-python==3.4.2.16tqdmmmcv==0.5.6Cython==0.29.15torchvision==0.3.0numpyalbumentations==0.4.5imagecorruptions==1.0.0matplotlibpycocotools==2.0sixterminaltable原创 2020-10-22 21:48:41 · 375 阅读 · 0 评论 -
mmdet用到的代码
测试python3 tools/test.py configs/DOTA/faster_rcnn_RoITrans_r50_fpn_1x_dota.py AeriaDetectionModel/DOTA/faster_rcnn_RoITrans_r50_fpn_1x_data/epoch12.pth --out out/out1.pklpython3 tools/test.py configs/DOTA/faster_rcnn_RoITrans_r50_fpn_1x_dota.py AeriaDete原创 2020-10-21 14:26:39 · 535 阅读 · 1 评论 -
科研小白进阶——数据集预处理
将数据集随机分为训练集和测试集原数据保存形式:处理后的数据保存形式:代码:import torchimport numpy as npimport torchvisionfrom torchvision import utils, transformsfrom torch.utils.data import DataLoaderfrom torch.autograd import Variablefrom model import my_resnet_18import osn原创 2020-08-25 16:49:05 · 746 阅读 · 1 评论 -
科研小白进阶——ResNet
网络加深,精度会提高,但过深会产生梯度消失问题,此时精度达到饱和,可能还会下降。为了让模型能尽可能深,同时避免梯度消失(motivation),因此作者提出一个深度残差学习框架(deep residual learning framework)(idea)。深度残差学习残差模块输入:X有参网络层,比如AlexNet/VGG等:H输出:y = H(X)输入、输出之间的残差:H(X)- X残差块的输出:H(X) = F(X)+ X残差映射:F(X) = F(X, {W})误差和残差的区别:误原创 2020-08-11 15:41:24 · 222 阅读 · 0 评论 -
科研小白进阶之路——torch实现模型保存和加载的几种方式
模型的保存:方式一:保存整个模型model = resnet()#-------省略训练过程------------torch.save(model,path)方式二:只保存模型参数model = resnet()#-------省略训练过程---------------torch.save(model.state_dict,path)模型的加载:情况一:训练已经结束,测试时加载训练好的模型1、在训练的py文件下面直接对模型进行测试:model = resnet() #原创 2020-08-07 11:31:24 · 1814 阅读 · 0 评论 -
科研小白进阶之路——读论文找关键点
科研小白的进阶之路——读论文找关键点科研小白在一只脚刚踏进科研之门时,都会有旅游刚刚到达一片全新的土地上的感觉,既新鲜,又想要最快的速度看遍这篇土地上的美景美人,科研也是一样。想要旅游,就必须做攻略,看看先去哪里玩儿,再去那里玩不会绕弯路;想要科研,就必须把一个大的科研方向分成小的子域,看看先学哪个部分,后学哪个部分,才能理解的更透彻更快。为了学习子域,必须将这个领域的论文进行阅读,那么,如何找到论文的关键点呢?一篇论文的motivation和idea是一篇好文章的精华,所谓必须知道从哪里来,想到哪里去原创 2020-08-04 18:09:32 · 1041 阅读 · 0 评论 -
深度学习中的logits
f(wx+b)之后的输出,没有归一化的输出值,作为logits。将logits进行softmax归一化,得到最后的结果。原创 2020-07-31 16:13:03 · 592 阅读 · 0 评论 -
边缘智能计算之AI芯片
AI芯片AI芯片:也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块。当前,AI芯片主要被分为GPU,FPGA(半定制化),ASIC(全定制化)和类脑芯片。GPU(通用性芯片):具备通用性、性能高、功耗高。无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独使用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,可调用GPU进行并行计算...原创 2019-07-29 11:23:43 · 3237 阅读 · 0 评论