computer version
文章平均质量分 64
未完城
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Wider Pedestrian行人检测数据集初步分析
文章目录Wider Pedestrian行人检测数据集目标实例可视化遮挡严重样本漏标样本其他行人检测数据集7月份我研究了一段时间行人检测问题,正好遇到Wider Pedestrian行人检测比赛,报名参加后中间准备秋招所以没有充足时间跑比赛。现在找到了一些当时的分析报告,这篇博客简单对Wider Pedestrian数据集简单介绍一下。Wider Pedestrian行人检测数据集比赛链...原创 2019-10-24 23:51:29 · 1914 阅读 · 0 评论 -
可视化COCO数据集中的标注
可视化COCO数据集中的标注from pycocotools.coco import COCOimport skimage.io as ioimport matplotlib.pyplot as pltimport pylab, os, cv2, shutilpylab.rcParams['figure.figsize'] = (8.0, 10.0)coco_classes=[ ...原创 2019-10-20 18:34:12 · 2310 阅读 · 0 评论 -
High-level Semantic Feature Detection: A New Perspective for Pedestrian Detection
High-level Semantic Feature Detection: A New Perspective for Pedestrian DetectionWei Liu · Shengcai Liao · Irtiza Hasanpaper: http://arxiv.org/abs/1904.02948code: https://github.com/liuwei16/CSP非官...原创 2019-06-09 13:56:44 · 1546 阅读 · 1 评论 -
Image.frombytes和np.fromstring 读取Raw图像速度比较
Image.frombytes和np.fromstring 读取Raw图像速度比较pillow 5.3.0python 3.6numpy 1.15.4opencv-python 4.0def readRaw_PIL(filename,height,width,depth,channel=1): img_size=int(height*width*depth/8*chann...原创 2019-01-23 15:24:06 · 4596 阅读 · 1 评论 -
多目标跟踪MOT踩坑记录
文章目录tracking MOT log0. 数据集1.Github2.资源综述3.工具包CodeMOT 工具包MOT 评估 Python版4.算法Codedeep sort `python`计算多目标跟踪性能1 实验:Deep SORT2 实验:Resnet50 MOT163 实验:Resnet50 MOT174 实验:计算MOT17的gt的指标5 实验:Deep SORT(MOT16用gt.t...原创 2018-12-25 22:10:11 · 30800 阅读 · 49 评论 -
VOC AP计算方法和检测框置信度阈值取值的影响
VOC AP计算方法和检测框置信度阈值取值的影响文章目录VOC AP计算方法和检测框置信度阈值取值的影响VOC AP计算方法检测框置信度阈值对AP的影响Faster RCNN mAP计算代码VOC AP计算方法首先明确几个定义预测(detection)真实(GroundTrue)TP(TruePositive)真真FP(FalsePositive)真假...原创 2018-12-04 09:45:54 · 7561 阅读 · 3 评论 -
Python可视化resnet50所有层特征图
Python可视化resnet50所有层特征图使用pytorch中预训练模型,在网络inference的过程中显示特征图的每个通道.文章目录代码input imageconv1 [1,64,112,112]bn1_relu [1,64,112,112]maxpool [1,64,56,56]layer1 [1,256,56,56]layer2 [1,512,28,28]layer3 [1,10...原创 2018-12-02 14:18:04 · 39955 阅读 · 28 评论 -
使用鼠标从Matplotlib显示的图像中取点,画框
使用鼠标从Matplotlib显示的图像中取点,画框#定义全局变量:PT表示鼠标从plt图中取到的点;默认情况下取左上角点和右下角点PT=[]def on_press(event): if event.button==1: #鼠标左键点击 global PT PT.append([event.xdata,event.ydata]) p...原创 2018-11-09 15:20:37 · 7383 阅读 · 3 评论 -
利用opencv计算PCA进行图像方向矫正
利用opencv进行pca图像方向矫正#coding=utf-8from __future__ import print_functionfrom __future__ import divisionimport cv2 as cvimport mathimport numpy as npimport matplotlib.pyplot as pltimport argparse...原创 2018-10-25 22:10:54 · 6546 阅读 · 3 评论 -
Tensorflow object_detection API笔记
文章目录TF object_detection API使用API训练数据集的一般流程1. 创建tfrecord2. 训练3. 将训练得到的权重文件合并为*.pb文件4. 评估create_pascal_tf_record.pytrain.pytrainer.pypipline configexample-pets-evalevaluator.py错误记录TF object_detection A...原创 2018-10-16 13:05:43 · 1754 阅读 · 1 评论 -
使用VScode编译和调试Caffe源码
文章目录一.caffe源码编译二.调试运行cpp_classification.cpp一.caffe源码编译下载源码caffe https://github.com/BVLC/caffe. 修改Makefile.config可选修改项DEBUG := 1CPU_ONLY := 1USE_OPENCV := 1- 必须修改的项 #找到下面两行 INCLUDE_DI...原创 2018-10-12 20:19:57 · 2632 阅读 · 0 评论 -
pose-ae-train 出错error: dereferencing pointer to incomplete type ‘THTensor {aka struct THTensor}’
[TOC] 最近在学习人体姿态估计,配置pose-ae-train时出现错误,多次试验后将解决方法记录下来,希望能帮助到其他人。 pose-ae-train链接:https://github.com/umich-vl/pose-ae-trainextensions/AE/ 目录下python build.py install出错(base) han@MS:/media/han/E/mW...原创 2018-08-16 19:39:23 · 2252 阅读 · 2 评论 -
Faster-RCNN_TF实验及错误解决
Faster-RCNN_TF实验及错误解决 [TOC]note这是我前一段时间学习Faster-RCNN_TF的一些笔记,包括程序运行出错的解决过程,和自己训练测试过程。 Faster-RCNN_TF github连接: https://github.com/smallcorgi/Faster-RCNN_TFFaster-RCNN_TF代码作者已经2年没有维护,并不完全兼容现在...原创 2018-08-18 18:14:16 · 9420 阅读 · 4 评论 -
VS+OpenCV属性配置表
VS+OpenCV属性配置表自己电脑配置了经典的opencv249版本和常用的opencv310版本,因为属性配置的时候经常记不住那么多的dll文件,所以把自己的VS2013用的属性配置表分享在这里,方便大家修改使用。使用时只需要新建一个文本文档,复制下面的代码,修改对应的文件目录,修改文件后缀为.props,再添加到项目中即可。opencv249添加系统环境变量 D:\OpenCV...原创 2018-03-27 22:47:41 · 450 阅读 · 0 评论 -
image Watch高级应用:自定义图像格式
image Watch高级应用:自定义图像格式image watch documents https://imagewatch.azurewebsites.net/ImageWatchHelp/ImageWatchHelp.htm#_Toc351981452Image watch是一个vs的扩展插件,可以在调试代码过程中方便的显示图像。Image Watch支持OpenCV的四类图像类型...原创 2018-03-27 14:51:43 · 1704 阅读 · 0 评论
分享