深度学习
塔塔的守护者
珍惜——!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
人工标注并制作分割图
1.在“ 开始”菜单中点击“Anaconda3(64bit)”,选择“ Anaconda Prompt(Anaconda3)”,进入终端,界面如下:找到labelme.exe所在文件夹D:\ProgramData\Anaconda3\envs\tf_keras\Scripts,然后在终端输入命令:人工标注用软件为:点击“Open”打开一张图片或者点击“OpenDir”打开一个图片文件夹,用" CreatePolygons"手动分割区域,如下图为分割出"sky",其余部分默认为“ B.原创 2020-12-14 21:27:18 · 869 阅读 · 0 评论 -
卷积神经网络
一、结构1.卷积过程:输入图片尺寸为(batchsize,l,w,channels),l表示长度,w表示宽度,channels表示通道数,batchsize为每次输入神经网络的图片张数。默认(1,6,6,1)。卷积核大小为(numbers,l1,w1,channels),l表示长度,w表示宽度,channels表示通道数,应与被卷积的特征图(输入的图片)的通道数相同,numbers表示卷积核的个数。默认(1,3,3,1)。(1)当直接对特征图进行卷积时,步长(stride)为1,符合公式,。原创 2020-11-04 07:42:33 · 795 阅读 · 1 评论 -
目标检测中回归损失函数
1.IOU(Intersection over Union)优点:(1)可以反映预测检测框与真实检测框的检测效果,(2)尺度不变性。缺点:作为损失函数会出现问题:(1)如果两个框没有相交,IoU=0,loss=0,没有梯度回传,无法进行学习训练。(2)IoU无法精确的反映两者的重合度大小。#iouimport numpy as npdef iou(box1,box2,wh=False): #wh=False表示输入的box为(左上角点坐标和右下角点坐标四个值) if转载 2020-08-19 14:13:22 · 1066 阅读 · 3 评论 -
关于Normalization的一些学习
1.Batch Normalization首先,我们要清楚cnn的反向传播中更新参数用到的梯度下降,是基于mini-batch SGD。mini-batch就表示有一定的batch size(>1)。实验发现当batch size<8时神经网络的输出误差会显著增大。对于Batch Normalization的应用,举例来说:一个feature map 为k*h*w大小,k表示通道数,h表示特征图的高,w表示特征图的宽,一个卷积层为m*k*f*f大小,m表示卷积核的个数,f表示卷积核的长.原创 2020-08-18 17:09:59 · 271 阅读 · 0 评论 -
ubuntu18.04系统配置gpu1080
首先附一张监视gpu工作的图片说一下我安装的软件的各个版本:1.anaconda3对应的python3.7.42.在anaconda中下载jupyter notebook3.tensorflow-gpu ==1.14.0 keras == 2.1.54.显卡驱动版本为410.1045.gcc==4.8, cuda==10.0, cudnn == 7.6.4...原创 2020-01-08 17:26:58 · 353 阅读 · 0 评论 -
numpy中expand_dims()函数详解
注:本文只是本人的通俗理解,有些专业概念表达不是很清楚,但我相信你读完可以理解该函数并会使用。expand_dims(a, axis)中,a为numpy数组,axis为需添加维度的轴,a.shape将在该轴显示为1,通过索引调用a中元素时,该轴对应的索引一直为0。废话少说,实操为证:本人使用jupyter notebook软件编程1.一维数组:即向量如上图所示,axis=0对应...原创 2019-12-26 11:23:41 · 30008 阅读 · 6 评论 -
os.listdir() 、tf.nn.top_k()、tf.nn.in_top_k()、tf.argmax()、tf.equal()、tf.reduce_mean()函数学习
1.os.listdir()用于返回指定的文件夹包含的文件或文件夹的名字的列表,它不包括 '.' 和'..' 即使它在文件夹中。import os# 打开文件path = "C:/Users/ch/Desktop/my/log/"dirs = os.listdir(path)# 输出所有文件和文件夹for file in dirs: print(file)结果...转载 2019-05-15 09:35:09 · 345 阅读 · 0 评论
分享