
TVM
陈天奇大佬团队开源的tvm框架学习笔记~
MirrorYuChen
个人博客网站:https://mirroryu.site/
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
tvm学习笔记(一):编译安装
1、编译需要打开的选项:set(USE_SORT ON)参考资料:https://discuss.tvm.ai/t/solved-cant-run-tutorials-ssd-model-on-my-own-cpu/20052、编译gpu模型:编译时,打开编译cuda选项:tvm_option(USE_CUDA "Build with CUDA" ON)在jetson na...原创 2019-04-21 01:41:10 · 6248 阅读 · 11 评论 -
tvm学习笔记(二):载入insightface人脸识别模型
1、载入insightface训练好的人脸识别模型将insightface训练好的模型转换成tvm能部署的model格式:import numpy as npimport nnvm.compilerimport nnvm.testingimport tvmfrom tvm.contrib import graph_runtimeimport mxnet as mxfrom m...原创 2019-04-22 01:32:40 · 3535 阅读 · 12 评论 -
tvm学习笔记 (三):载入onnx格式模型
1、模型转换import onnximport numpy as npimport tvmimport tvm.relay as relayonnx_model = onnx.load('test.onnx')target = tvm.target.create('llvm')input_name = '0' # change '1' to '0'shape_dict...原创 2019-06-05 21:12:46 · 10947 阅读 · 0 评论 -
tvm 学习笔记(四):tvm量化pytorch的onnx模型
1、模型来源:github链接:https://github.com/qfgaohao/pytorch-ssd2、保存成onnx模型运行convert_to_caffe2_models.py脚本>> python convert_to_caffe2_models.py3、使用onnx-simplifier工具:安装使用:>> pip3 ins...原创 2019-07-03 15:44:33 · 5784 阅读 · 9 评论 -
tvm学习笔记(五):tvm工作原理
一、总体流程: TVM的工作流程:首先,将网络表示成统一的表示形式(Intermediate Representation),并进行一些可重用的图优化;然后,利用不同的后端生成对应设备代码,如图1所示。 图1 tvm 工...原创 2019-07-19 23:25:43 · 10377 阅读 · 2 评论 -
tvm学习笔记(六):数据类型及形状
据说tvm会支持训练,然后沐神他们为了推广tvm,专门对tvm重写了文档d2l-tvm,具体详见资料[1],下面就是对着沐神他们写的文档做的学习记录:1.tvm的数据类型我们在声明placeholder的时候,可以显式的指定数据的类型,如:'float16', 'float64', 'int8','int16', 'int64'等import tvmA = tvm.placehol...原创 2019-11-30 00:39:02 · 3420 阅读 · 4 评论 -
tvm学习笔记(七):简约操作
所谓Reduction(简约操作)其实就是说经过该操作之后,输入向量的维度会减小,例如,对输入向量沿着某个维度进行求和,先看一下python的代码:import numpy as npa = np.random.normal(size=(3, 4)).astype('float32')print(a)print(a.sum(axis=1))打印结果为:这里就是沿着第二个...原创 2019-12-05 01:48:08 · 2244 阅读 · 3 评论 -
tvm学习笔记(八):卷积操作
对于卷积神经网络中,卷积操作可能是最常见操作,具体原理可以去学习一下Andred NG的课程,建议搞计算机视觉方向的都去刷一波,具体过程如图1所示: 图1 'VALID'方式卷积操作过程其实就是卷积核与图像待操作区域进行乘加操作,常见的卷积操作有两种形式,第一种是'VALID'的方式,如图1所示,第二种是'SAME'的方式,区别在于'SAME'方式会对输入进行填充,以保...原创 2020-01-01 23:40:47 · 1894 阅读 · 0 评论