人工智能
仙凡兄
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
部署onnx
部署框架onnx 1.转成C++程序,输出要考虑清楚 2.cuda的库要匹配,主要还是与自己电脑上的驱动有关系,如果程序卡在cuda加载的时候,优先考虑是否cuda_adv_infer64_8.dll是否加载正确。 3 输入要正确 训练与推理要保持一致 ...原创 2021-12-24 13:17:24 · 2279 阅读 · 0 评论 -
caffe安装_opencv4.0_aconda cpu python3.8 ubuntu20.04(亲自安装)
1 安装caffe依赖库 sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler sudo apt-get install --no-install-recommends libboost-all-dev sudo apt-get install libatlas-base-dev sudo apt-get install libg原创 2021-02-06 11:31:53 · 993 阅读 · 1 评论 -
关于pytorch使用tensorboard以及visdom
UnicodeDecodeError: ‘utf-8’ codec can’t decode bytes in position 1022-1023: 在python.py开头加上如下: #!/usr/bin/env Python coding=utf-8原创 2021-01-19 16:40:29 · 398 阅读 · 1 评论 -
论文解读以及翻译-语义分割
HIERARCHICAL MULTI-SCALE ATTENTION FOR SEMANTIC SEGMENTATION 层次多尺度注意力机制的语义分割 ABSTRACT 摘要 Multi-scale inference is commonly used to improve the results of semantic segmentation。 多尺度推理是提高语义分割的常见的方式。 Multiple images scales are passed through a network and the原创 2020-12-23 00:24:10 · 499 阅读 · 0 评论 -
yolov5训练(心得)
yolov5成功训练真的是一波三折 1 coco数据的下载 (两种128,用于小批量测试,可以用来测试程序是否正常,真正训练的时候还是需要coco数据集,自己自定义的数据可以根据coco128.yaml文件夹的形式来定义,coco.yaml是txt的方式) 2 运行程序 1)window成功,虚拟机失败,服务器失败 表象:如下图所示卡在那里不对 排查原因: 1:发现dataloader数据不对,循环打印,打印不出来,终于找到原因 2:对比为什么windows可以,服务器不可以,发现windows安装的是t原创 2020-12-05 18:33:58 · 5363 阅读 · 7 评论 -
caffe的使用
1 定义solve.prototxt 主要定义一些训练的参数; 2 定义mode.prototxt 主要定义模型结构 3 训练模型 方法1: build/tools/caffe train -solver /home/www/solve.prototxt build/tools/caffe train -solver =/home/www/solve.prototxt 方法2: 建立一个py文件 trainCaffe.py import caffe caffe.set_device(0) caffe.set原创 2020-10-14 14:42:07 · 252 阅读 · 0 评论 -
深度模型的部署
深度学习框架keras,pytorch,caffe 边缘设备框架 tvm ncnn 或者海思板子 1:keras->onnx pip install keras2onnx pytorch->onnx pip install onnx pip install onnx-simplifier keras->caffe 2:onnx->caffe pip install onnx-caffe2 onnx->tvm 编译tvm源码 linux arm windows的LLVM比原创 2020-09-08 09:56:14 · 456 阅读 · 0 评论 -
windows安装ncnn
1安装visual studio2019 2安装cmake 3下载protobuf-3.4.0 https://github.com/google/protobuf/archive/v3.4.0.zip 4下载ncnn https://github.com/Tencent/ncnn 5vs2019最重要的: 一定要选择如下打开: 6:install protobuf cd mkdir build-vs2017 cd build-vs2017 cmake -G"NMake Makefiles" -DCM原创 2020-07-24 10:53:14 · 798 阅读 · 0 评论 -
ubuntu安装anconda
1 bash(sh还未尝试) + 安装包 2一路enter ,或者yes 3 source ~/.bashrc原创 2020-07-19 10:12:19 · 264 阅读 · 0 评论 -
anaconda环境
linux激活anaconda环境 conda 1:激活conda环境 source activate TensorFlow 2:退出conda环境 source deactivate 3:创建命令 通过调用以下命令创建名为 tensorflow 的 conda 环境,-n表示name参数,python=3.6表示以运行 Python3.6版本: conda create -n TensorFlow python=3.6 4:列出所有环境列表 conda env list 5:删除环境 conda remo原创 2020-06-17 13:38:47 · 244 阅读 · 0 评论 -
安装pytorch
1:conda create -n pytorch1 python=3.6 2:activate pytorch1 3:pip install f:/torch-1.3.0-cp36-cp36m-win_amd64.whl 4:pip install f:/torchvision-0.4.1-cp36-cp36m-win_amd64.whl 5:pip install intel-openmp 6:conda install numpy pyyaml mkl cmake cffi 7:conda insta原创 2020-06-17 13:31:38 · 302 阅读 · 0 评论 -
python的基础
for k, v in enumerate(extra_layers[1::2], 2): 一般索引是从1开始的 但以上给定的是2,代表的是索引从2开始,但是内容也会迭代完。原创 2020-06-12 14:02:54 · 240 阅读 · 0 评论 -
图片绘画groundTruth
from imageio import imread from keras.preprocessing import image from matplotlib import pyplot as plt import xml.dom.minidom import numpy as np #Train.txt格式类似如下 #data/123.jpg lines = [] with open("./dataset/Train.txt",‘r’,encoding=“utf-8”) as f: lines = [原创 2020-06-11 15:53:19 · 488 阅读 · 0 评论 -
tensorboard
1:tensorbord 命令 tensorboard --logdir logs --host=127.0.0.1 logs代表日志所在的文件夹,可以是相对路径,也可以是绝对路径; 2:(dt - datetime.datetime.fromtimestamp(0)).total_seconds()), OSError: [Errno 22] Invalid argument 修改tensorboard下manager.py,修改如下 _type_timestamp = _FieldType( seria原创 2020-06-11 10:59:34 · 279 阅读 · 0 评论 -
剖析 Focal Loss 损失函数: 消除类别不平衡+挖掘难分样本
版权声明:本文为转载文章。 本文链接:https://blog.youkuaiyun.com/Gentleman_Qin/article/details/87343004 论文名称:《 Focal Loss for Dense Object Detection 》 论文下载:https://arxiv.org/pdf/1708.02002.pdf 论文代码:https://github.com/faceboo...转载 2020-04-25 22:43:18 · 1224 阅读 · 0 评论
分享