
深度学习
文章平均质量分 61
街道口扛把子
武汉大学炼丹师
展开
-
多目标跟踪yolov5+deep sort转ncnn调用
Qt,ncnn,opencv调用yolov5+deep sort原创 2021-12-01 13:40:41 · 5252 阅读 · 0 评论 -
paddlepaddle模型转onnx
PaddleDetection目标跟踪算法概述https://github.com/PaddlePaddle/PaddleDetection/blob/release/2.3/configs/mot/README.md#%E5%BF%AB%E9%80%9F%E5%BC%80%E5%A7%8BC++预测https://github.com/PaddlePaddle/PaddleDetection/blob/release/2.3/deploy/pptracking/cpp/README.md转onnx原创 2021-11-29 14:52:12 · 1506 阅读 · 0 评论 -
yolov5第六版转为onnx,ncnn使用
20211118yolov5第六版去掉了focus,在ncnn使用时兼容性更好。固定形状输入转onnxpython export.py --include onnx --weight path/to/x.pt --img 640 --train --simplify注意加–train,是去掉后处理部分的导出。.动态形状输入转onnxpython export.py --include onnx --weight path/to/x.pt --img 640 --train --dynamic原创 2021-11-18 12:32:09 · 1511 阅读 · 0 评论 -
[AAAI 2020] 医学图像分割的Non-local U-Nets
Non-local U-Nets for Biomedical Image Segmentation论文分享论文地址:Non-local U-Net for Biomedical Image Segmentation开源代码地址(tensorflow代码):Non-local-U-Nets以上代码是tensorflow的,用于3D图像,根据这个,我做了一个pytorch的2D图像的代码。Whu-wxy/Non-local-U-Nets-2D-block2020.3.4: pytorch的3D版原创 2020-12-21 12:08:25 · 837 阅读 · 0 评论 -
Scaling SGD Batch Size to32K for ImageNet Training论文阅读笔记
论文地址:Scaling SGD Batch Size to32K for ImageNet Training其他相关的:224秒训练ImageNet!这次创纪录的是索尼大法ImageNet/ResNet-50 Training in 224 SecondsLARGE BATCH OPTIMIZATION FOR DEEP LEARNING: TRAINING BERT IN 76 MINUTES论文内容介绍大batch Size在多个GPU上并行训练可以充分利用硬件资源,减少训练时间,但是众原创 2020-12-21 11:58:47 · 250 阅读 · 0 评论 -
OCR-VQA论文分享
OCR-VQA: Visual Question Answering by Reading Text in ImagesICDAR 2019论文地址OCR-VQA数据集前不久看了一个2020年文档图像分析与识别前沿理论与应用研讨会的视频,金老师在展望中提到了OCR和NLP结合的新的研究方向Text VQA,还说了如果只是把文档中的字识别出来是没什么用的,更重要的是从中发现有意义的东西(需要理解文本)。感觉这个是个很有意思并且有意义的问题,于是最近准备看几篇这个方面的文章。简介摘要回答关于图原创 2020-12-01 22:44:03 · 1258 阅读 · 0 评论 -
Qt ncnn Windows编译
官方给出的编译方法是用于VS,Qt中编译稍有不同,过程更简单。其他:Qt+ncnn+android配置方法。1. 把ncnn的CMakeLists.txt文件直接拖进Qt中。2. 设置要编译哪些东西,我这里不需要用到benchmark,examples,tools和tests,(所以这里我不需要用到protobuf),所以可以在CMakeLists.txt文件中注释掉或者在构建设置中进行设置。如下图所示。3. 在构建目录下进行make。执行下面这句:D:\Qt5\Qt5.9.6\Tools\mi原创 2020-06-20 12:14:20 · 1710 阅读 · 0 评论 -
Qt ncnn Android部署模型记录
官方pytorch转ncnn说明流程如下:pytorch训练->onnx->onnx-simplifier->ncnn1.pytorch训练->onnx2.onnx->onnx-simplifier2.1安装onnx-simplifierpip install onnx-simplifier2.2输入命令转换模型python -m onnxsim pse.onnx pse_sim.onnx得到以下结果:3. onnx-simplifier->原创 2020-05-20 20:26:30 · 1692 阅读 · 2 评论 -
Total-Text标签转IC15格式
在批量处理total-text数据集格式的基础上改了几行代码,修改了少量标签中有换行符导致的错误结果。import reimport cv2import osimport numpy as npfrom tqdm import tqdm# Total-Text To IC15# F:\zzxs\Experiments\dl-data\TotalText\Groundtruth...原创 2020-04-25 12:03:04 · 867 阅读 · 0 评论 -
MIDL 2019——Boundary loss代码
会议MIDL简介8 - 10 July 2019全名International Conference on Medical Imaging with Deep Learning,会议主题是医学影像+深度学习。Boundary loss由Boundary loss for highly unbalanced segmentation这篇文章提出,用于图像分割loss,作者的实验结果表明di...原创 2020-01-19 09:18:53 · 5464 阅读 · 9 评论 -
Adam,Ranger,RAdam,Lookahead对比
mgrankin/over9000https://github.com/mgrankin/over9000原创 2019-10-05 10:35:47 · 958 阅读 · 0 评论 -
ncnn caffe转ncnn模型报错:段错误(核心已转储)
原来是运行caffe2ncnn时,有一个文件路径写错了,多了一个空格。把这个空格去掉就OK了。原创 2019-08-09 15:11:29 · 1455 阅读 · 1 评论 -
编译caffe遇到的问题及解决
编译caffe需要安装的东西:install libatlas-base-devsudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libboost-all-dev libhdf5-serial-devsudo apt-get install libgflags-dev libgoog...原创 2019-08-08 16:41:30 · 642 阅读 · 0 评论 -
配置ncnn时报错找不到protobuf路径
配置ncnn需要安装protobuf,源码安装高版本的protobuf后,安装ncnn时报错找不到protobuf路径。解决:1.使用这个命令安装: sudo apt-get install libprotobuf-dev protobuf-compiler (https://github.com/Tencent/ncnn/issues/103)2.安装较低版本protobuf,>=2...原创 2019-08-07 23:19:07 · 1604 阅读 · 0 评论 -
Qt+opencv部署深度学习模型到windows与android
配置Qt + android的一套 + mingw版本opencv + android版本opencv我用的模型是tensorflow的ssd_mobilenet_v1_coco_11_06_2017mingw版本opencv (我的是3.41)android版本opencv (我的是3.45)结果展示详细过程主要的代码是融合了以前的工作Qt Android打开系统相机和相册,...原创 2019-02-28 16:07:47 · 2734 阅读 · 4 评论 -
Qt+opencv dnn模块调用tensorflow模型
opencv默认是msvc的,如果Qt装的mingw的,需要编译一份opencv,我在网盘存了一份3.4.1版本的,忘记从哪里下载的了。链接:https://pan.baidu.com/s/1whgWXpd8BAgahG0HZxHiVg 提取码:pqpq 之前做一个app部署深度学习模型,网上看到的都是java+android studio做的,用Qt做的见不到,最近才知道opencv有d...原创 2019-02-24 21:28:48 · 4773 阅读 · 20 评论 -
Gated CNN
原创 2019-02-14 12:28:52 · 1871 阅读 · 0 评论 -
batch、batch_size、epoch、iteration简介
batch_size、epoch、iteration是深度学习中常见的几个超参数:(1)batchsize:每批数据量的大小。DL通常用SGD的优化算法进行训练,也就是一次(1 个iteration)一起训练batchsize个样本,计算它们的平均损失函数值,来更新参数。(2)iteration:1个iteration即迭代一次,也就是用batc...转载 2019-03-01 23:36:52 · 1397 阅读 · 0 评论 -
深度学习为什么会出现validation accuracy大于train accuracy的现象?
知乎:深度学习为什么会出现validation accuracy大于train accuracy的现象?概括他们的答案:validation的样本数量一般远小于training的val的时候是用已经训练了一个epoch的model进行测试的(经过大量的训练学习到东西了)data augmentation把训练集变得丰富,制造数据的多样性和学习的困难来让network更robust(比如旋...原创 2019-03-02 00:19:05 · 8631 阅读 · 0 评论 -
CrossEntropyLoss与NLLLoss的总结
nll_loss(negative log likelihood loss):最大似然 / log似然代价函数CrossEntropyLoss: 交叉熵损失函数。交叉熵描述了两个概率分布之间的距离,当交叉熵越小说明二者之间越接近。nn.CrossEntropyLoss() 与 NLLLoss()NLLLoss 的 输入 是一个对数概率向量和一个目标标签. 它不会为我们计算对数概率. 适合网络...原创 2019-03-03 13:22:20 · 22040 阅读 · 1 评论 -
BERT的vocabulary字典
在pytorch-pretrained-BERT/pytorch_pretrained_bert/tokenization.py文件中可以看到BERT使用的vocabulary链接,但是不用特殊的上网方式打不开。PRETRAINED_VOCAB_ARCHIVE_MAP = { 'bert-base-uncased': "https://s3.amazonaws.com/models.hu...原创 2019-03-17 09:40:17 · 9765 阅读 · 4 评论 -
pytorch从打印输出的张量确定维度
tensor( [[[[ 0.4024, 0.8702], [-0.0625, -0.3826]], [[-1.1489, -0.5550], [ 0.0176, 1.0890]]]]) tensor( [[[ 0.4024, 0.8702, -0.0625, -0.3826], [-1....原创 2019-03-24 19:15:39 · 3548 阅读 · 0 评论 -
NLP中的注意力机制论文集
Github地址:https://github.com/yuquanle/Attention-Mechanisms-paper/blob/master/Attention-mechanisms-paper.md原创 2019-02-06 09:34:23 · 373 阅读 · 0 评论