
深度学习
渡伴
果断,坚决,逆锋起笔
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
ubutnu16.04安装hdf5
我一天天尽在这踩坑了,可能本身就是个坑!!!官网:https://support.hdfgroup.org/HDF5/我下的这个版本:hdf5-1.8.21.tar.bz2tar -jxvf hdf5-1.8.21.tar.bz2sudo ./configure --prefix=/usr/local/hdf5 #安装路径sudo makesudo checksudo installsudo check-install安装好了之后进这个目录/usr/local/share/hdf5原创 2020-09-01 10:24:43 · 575 阅读 · 0 评论 -
torch1.2GPU版本安装
pip3.6 install http://download.pytorch.org/whl/cu90/torch-0.4.0-cp36-cp36m-linux_x86_64.whl原创 2021-03-01 11:18:00 · 1324 阅读 · 0 评论 -
ubuntu16.04 tensorflow c++编译及调用
优秀的参考文献:link感谢作者!!!写之前总结下我遇到的坑,一把辛酸泪!!大坑1:我查看了我的/usr/local/include…那个路径下有tensor_shape.h这个函数的,这个错误有人说是tensorflow_cc.so找不到link,有的人说link既然编译了tensorflow就顺便编译whl,然后卸载本身用pip install安装的tensorflow,这种办法我试了,还是报错undefined balabala一堆,我最终的解决方案是:linker时加上-fuse-ld=g原创 2020-08-31 00:59:14 · 1611 阅读 · 6 评论 -
windows 10上源码编译libjpeg-turbo和使用教程
win10编译libjpeg-turbo原创 2023-03-31 21:06:31 · 1415 阅读 · 1 评论 -
yolov3转onnx和原来torch的预测结果一致
想做的事情: yolov3的pth模型转成onnx,并用opencv调用原因: 希望不引入深度学习的框架,编译tensorflow谁编译谁懂!而且包文件也会小做法:3. 参考大神的思路: 将yolov3的三个特征图输出重写,输出格式为xyxy,将upsample用转置卷积重写4. yolov3训练的时候用新的网络正常训练,测试的时候np.concatenate三个特征图的输出去预测,这两个结果验证过是一样的5. 想做的事: 将网络输出的pth模型转成onnx, 对onnx模型预测6. 结论:.原创 2021-03-25 20:12:00 · 741 阅读 · 0 评论 -
目标检测中IOU GIOU DIOU CIOU的理解
IOU论文:GIOU论文:DIOU论文:链接: link.CIOU论文:原创 2020-08-24 18:49:00 · 5336 阅读 · 1 评论 -
yolov3检测小物体loss为nan
问题:图片大小为1024x1024,第一个batch跑完的时候很正常,到了第二个batch以及之后的都是nan可能的原因:图像本身大小33072340,被resize成10241024,object发生了形变,本身就是小物体,resize之后就更不容易识别我使用的权重文件是yolov3.cfg,说明这个权重对应的图片与我的图像差异太大检查一系列参数暂时想到这些,会来补充并填坑!...原创 2020-09-04 09:46:13 · 1177 阅读 · 2 评论 -
目标检测回归损失函数1:L1 loss, L2 loss以及Smooth L1 Loss的对比
这个博客让我看明白了三者的区别:https://www.cnblogs.com/wangguchangqing/p/12021638.html总结就是smooth L1 loss完美的规避了L1 loss和L2 loss的缺点相对于L1 loss来说,收敛的更快了相对于L2 loss来说,对于离群点更加友好,梯度变化小...原创 2020-08-23 22:24:16 · 1063 阅读 · 0 评论 -
PyTorch 自动求导机制
https://blog.youkuaiyun.com/manong_wxd/article/details/78734358转载 2020-08-24 11:31:11 · 218 阅读 · 1 评论 -
Pytorch中的自动求导函数backward()所需参数的含义
参考链接:Pytorch中的自动求导函数backward()所需参数的含义pytorch中backward()函数详解PyTorch 的 backward 为什么有一个 grad_variables 参数?三个链接明白了backward()自动求导的原理,以及矩阵自动求导的原理,以及grad_variables参数的意义。因为经过了复杂的神经网络之后,out中每个数值都是由很多输入样本的属性(也就是输入数据)线性或者非线性组合而成的,那么out中的每个数值和输入数据的每个数值都有关联,也就是说原创 2021-08-16 21:16:03 · 267 阅读 · 0 评论 -
使用pytorch的并行测试网络的时候报错: RuntimeError: Error(s) in loading state_dict for DataParallel
解决方案:model.load_state_dict(torch.load(opt.model))在加载模型或者权重之前加上这句model = nn.DataParallel(model)就可以了。注意:并行程序测试网络的时候需要模型也并行。单卡的模型在测试程序的也需要单卡。...原创 2020-12-19 14:47:52 · 543 阅读 · 1 评论 -
深度学习(二十九)Batch Normalization 学习笔记
深度学习(二十九)Batch Normalization 学习笔记转载 2021-03-28 15:28:55 · 165 阅读 · 0 评论 -
鱼眼相机的测距流程及误差分析[像素坐标系到空间一点以及测距和误差分析]
鱼眼相机像素坐标系转世界坐标系原创 2024-03-28 19:24:00 · 2083 阅读 · 0 评论 -
基于yolov5的单目测距实现与总结+相机模型+标定
yolov5,相机标定,相机模型以及单目测距原创 2024-03-21 11:54:03 · 5477 阅读 · 19 评论 -
pytorch模型和caffe模型输出误差大于10-4 --------模型验证失败时的处理方法
如果pytorch模型输出和caffe模型输出误差大于10^-4,说明模型验证失败,这时候需要从以下几个方向去排查。原创 2024-01-28 19:06:22 · 517 阅读 · 0 评论 -
c++实现NMS(非极大抑制)
使用C++和OpenCV库实现nms原创 2023-07-14 17:05:13 · 566 阅读 · 0 评论 -
超轻量目标检测模型NanoDet
华为P30上用NCNN移植跑benchmark,每帧仅需10.23毫秒,比yolov4-tiny快3倍,参数量小6倍,COCO mAP(0.5:0.95)能够达到20.6 。而且模型权重文件只有1.8mb,对比动辄数十兆的模型,可以说是相当友好了~ Android Demo 项目地址(提供训练代码到安卓部署一站式解决方案): RangiLyu/nanodet: ⚡Super fast and ligh...转载 2020-12-05 14:54:34 · 1367 阅读 · 2 评论