- 博客(20)
- 资源 (1)
- 收藏
- 关注

原创 Yolo 语义分割Semantic Segmentation代码修改及训练全纪录
首先说一下,本人由于之后嵌入式开发移植的需求,因此主要改动的框架就是darknet。前面一篇博文主要介绍了我所使用的数据集及其预处理方式,本文我将对darknet中相关语义分割的修改进行介绍,供大家参考,如果大家有兴趣的话可以参考我的github主页:https://github.com/ArtyZe/yolo_segmentation 当然,yolo作者也在不断的对...
2018-09-16 12:04:51
12315
37
原创 windows下Cannot load onnxruntime.capi. Error: ‘DLL load failed‘
问题描述:出现这个问题基本代表你的windows的版本比较落后了,然后vc的版本小于2015解决方法:vs下载链接到此处下载最新的vc环境,安装好之后即可
2021-07-23 15:56:51
1192
原创 onnxruntime生成静态链接库libonnxruntime.a
如果通过源码编译会在build文件夹下得到一系列的.a库,但是onnxruntime默认将其链接成动态链接库,可以通过如下方式生成静态链接库在build文件夹里创建文件merge.mricreate libonnxruntime.aaddlib /workspace/ygao/software_backup/onnxruntime/build/Linux/RelWithDebInfo/libonnxruntime_common.aaddlib /workspace/ygao/software_
2021-05-20 17:20:50
2597
4
原创 解决问题:C++创建map及使用时报错:no matching function for call to ‘Ort::Value::Value()“
解决问题:C++创建map及使用时报错:no matching function for call to 'Ort::Value::Value()"问题描述:首先我需要创建一个std::unordered_map<std::string, Ort::Value>,同时插入键值对到map里,之后再进行访问测试。代码如下:创建mapstd::unordered_map<std::string, Ort::Value> ort_output_map;填入一个...
2021-05-13 17:22:51
4265
原创 onnx优化系列 - 获取onnx每层输出及shape
如何获取onnx每层输出及shape问题描述onnx作为中间转换标准键,我们需要确保模型转换前后的精度完全一致,否则就失去了模型转换的最基本要求。但是在以下两种情况下,我们通常会遇到一点问题:我们需要获取模型特定节点的输出我们需要获取每一层的output shape,而由onnx标准api: onnx.shape_inference得到的shape信息错误解决方法我们知道获取onnx输出的官方工具即是onnxruntime,通常我们会采用如下的方法获取output: model =
2021-04-29 15:32:30
18950
3
原创 darknet 训练CUDA Error: an illegal memory access was encountered
darknet 训练CUDA Error: an illegal memory access was encountered CUDA Error: an illegal memory access was encountered:success问题在于cfg文件中yolo层的random设置成了1,直接改为0即可
2021-03-29 17:31:37
789
原创 解决问题:“error: src refspec master does not match any.”
通过命令行去push git 的时候遇到了问题:error: src refspec master does not match any.push 命令: git push -u origin master修改命令: git push -u origin main原因嘛,还不是因为美国那边黑命贵,导致都不敢用master这个曾经代表资本主义的词,改成了main即可...
2020-10-17 17:13:37
462
原创 解决问题: Pyinstaller打包后出现问题:“No such file or directory: ‘/tmp/_MEI4YU7IA/astor/VERSION‘
这个问题出现的主要原因是在于astor模块把VERSION版本信息写在名为VERSION的文件里,在打包后,运行到__init__时候突然发现没有这个文件,就报错了。ROOT = os.path.dirname(__file__)with open(os.path.join(ROOT, 'VERSION')) as version_file: __version__ = version_file.read().strip()解决方法在打包好的可执行文件同级下创建一个site-packag
2020-10-12 14:39:32
2496
原创 Tengine Convert Tools代码走读-图优化篇
为了与TVM进行对比,笔者决定同时看一下Tengine是如何做的。首先还是从图优化入手。Tengine的整体架构根据架构以及代码发现,Tengine将模型转换分离出来了,叫做Tengine-Convert-ToolsTengine-Convert-Tools Github有一说一,看的出来,Tengine的开发团队应该不是特别多,时间紧任务重,几乎所有的函数都没有注释(同时也没文档),虽然靠函数名也能猜出来,但是对于刚开始看的同学来说确实不太友好,对比来说,TVM或者任何其他的框架都做的要好很多。
2020-10-09 21:09:15
829
2
原创 TVM系列 - 图优化 - 算子融合
TVM系列 - 图优化 - 算子融合图优化综述声明一下,本文所有的理解都是基于个人理解。图优化算是一个推理框架前端比较成熟的操作了,一般来说,针对模型做图优化有两个目的(对于通用框架来说,就加速减少计算一个目的了):减少Node的数量, 不管是算子融合,还是无效节点去除,共同的目的就是减少整个graph中node的数量,因为对于框架来说,从一个node到另一个node之间就意味着数据的搬运。举个例子,我们知道算子合并最经典的就是将BN层融合到Conv层,我们姑且不论融合后计算量的减少,单单是减少了
2020-09-28 15:44:43
14044
11
原创 TVM系列 - 量化
TVM系列 - 量化TVM量化原理TVM量化现状TVM量化原理介绍TVM量化代码解析TVM量化原理关于量化的方式其实已经有足够的文章去了解目前最主流的两种:离线量化及训练时量化(大家应该能理解,其实就是伪量化),而tvm的作者之一也对这些文章有一个初步的汇总:tvm作者关于量化方式的讨论,这部分不做过多讨论,直接进入tvm量化的部分TVM量化现状事实上,可能tvm团队将主要精力放到了autotvm,以框架整体的优化上(毕竟这部分才是tvm的特点呀),tvm的单纯量化效果并不理想,不仅精度有所下降,正
2020-09-25 14:27:03
4412
4
原创 torch注册自定义算子并导出onnx(Enet, Centernet)
torch注册自定义算子定义算子计算函数编译生成.so文件测试是否注册成功1. 定义算子的由input到output的计算函数**(op_custom.cpp)**2. 将函数注册到torch中**(op_custom.cpp)**3. 创建setup.py4. 开始编译5. 进行测试->加载模型**(test.py)**第一种:第二种:6. 进行测试->将算子通过symbol注册到torch/onnx(test.py)7. 进行测试->导出模型到onnx(test.py)8. 查看onn
2020-07-28 18:43:21
8787
15
原创 onnx优化系列 - 获取中间Node的inference shape的方法
ONNX获取中间Node的inference shape的方法需求描述原理代码需求描述很多时候发现通过tensorflow或者pytorch转过来的模型是没有中间的node的shape的,比如下面这样:但是碰到一些很奇怪的算子的时候,我们又想知道他对上一层feature map的形状影响是怎样的,于是下面的模型看起来会更友好一些这里之所以看上去和原来的node的分布都不一样,是因为我在这里将pad和biasadd加到conv中了已经。原理ONNX本身提供了进行inference的api:s
2020-07-17 10:49:58
10197
2
原创 caffe编译后ImportError: libprotobuf.so.10: cannot open shared object file: No such file or directory+的问
问题:这里的问题非常明显,就是你没有安装protobuf或者安装的protobuf版本不对,而且有很大概率是你的版本不对甚至有可能在编译的时候报错:/usr/bin/ld: main.o: undefined reference to symbol '_ZN6google8protobuf8internal11LogFinisheraSERNS1_10LogMessageE'//usr/lib/x86_64-linux-gnu/libprotobuf.so.9: error adding sy
2020-07-01 14:50:05
3057
1
原创 关于L1和L2正则化的考虑
前面通过学习大致知道了L1和L2正则化的作用:L1正则化:会使权重中的某些值在训练过程中变为0,从而达到使网络稀疏化的效果L2正则化:极小的概率会使权重变为0,但是同样能够使权重相比他拟合数据集后应该成为的值变得更小,从而减小过拟合的风险,所以从这个角度来看,L1正则化同样具有一定的防止过拟合的效果,毕竟都已经稀疏了。那么我们就从L1和L2的公式来看一下为什么L1具有稀疏化的作用:...
2019-02-26 19:49:48
559
原创 yolo中增加L1及L2正则化
动量更新:动量更新的公式为:首先参考caffe中动量更新的方式:case Caffe::CPU: { //计算公式:data = local_rate * diff + moment * old_data caffe_cpu_axpby(net_params[param_id]->count(), local_rate, ...
2019-02-26 15:51:00
2656
4
原创 yolo卷积层及其他中间层梯度权值数据可视化
针对有自己训练任务或者模型设计任务的同学来说,训练过程中的参数变化是判断自己模型梯度消失与否的重要评价标准,本文以yolo卷积层的梯度值为例,给出如何进行数据可视化的方法 对于darknet框架来说,由于不存在内存共享,因此如果有使用到GPU的话,需要使用CUDA的函数将GPU内存中的数据传递到CPU中方可进行访问cuda_pull_array(l.de...
2018-12-06 11:37:08
1607
原创 YOLO-Darknet框架 instance segmentation (iseg_layer.c)代码解析
完成上篇博客semantic segmentation的任务之后,一方面继续研究对其精度及性能的提升,另一方面着手处理更加复杂,算法与语义分割也不尽相同的实例分割instance segmentation。由于作者已经给出了源码,话不多说,直接开始上代码,由于算法的复杂性,可能有的地方说的不详细或者不对的,欢迎找我讨论。 Embedding降维 在了解实例分割代码之前,首先需要掌握一种非...
2018-09-27 17:01:04
2808
4
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人