
飞浆Paddle学习
旅人_Eric
这个作者很懒,什么都没留下…
展开
-
第四章:目标检测YoloV3(下)
目录多尺度检测开启端到端训练预测模型效果及可视化展示多尺度检测目前我们计算损失函数是在特征图P0的基础上进行的,它的步幅stride=32。特征图的尺寸比较小,像素点数目比较少,每个像素点的感受野很大,具有非常丰富的高层级语义信息,可能比较容易检测到较大的目标。为了能够检测到尺寸较小的那些目标,需要在尺寸较大的特征图上面建立预测输出。如果我们在C2或者C1这种层级的特征图上直接产生预测输出,可能面临新的问题,它们没有经过充分的特征提取,像素点包含的语义信息不够丰富,有可能难以提取到有效的特征模式。在目标原创 2020-08-29 10:40:13 · 1612 阅读 · 1 评论 -
第四章:目标检测YoloV3(中)
目录单阶段目标检测模型YOLO-V3YOLO-V3 模型设计思想产生候选区域生成锚框生成预测框对候选区域进行标注标注锚框是否包含物体标注预测框的位置坐标标签标注锚框包含物体类别的标签标注锚框的具体程序卷积神经网络提取特征根据输出特征图计算预测框位置和类别建立输出特征图与预测框之间的关联计算预测框是否包含物体的概率计算预测框位置坐标计算物体属于每个类别概率损失函数单阶段目标检测模型YOLO-V3上面介绍的R-CNN系列算法需要先产生候选区域,再对候选区域做分类和位置坐标的预测,这类算法被称为两阶段目标检测原创 2020-08-29 10:30:09 · 971 阅读 · 2 评论 -
PaddlePaddle 21 天学习心得
也是机缘巧合下看到公众号推送的21天学习Yolov3,点开一看,还是免费的!百度真是良心啊,抱着不求大的飞跃,只求小的进步的心态,我报名参加了此次“训练营”。21天的课程内容涵盖丰富,讲解清晰透彻,老师们,助教们都认真细心的为同学们传授知识,答疑解惑,在此向百度飞浆的团队们表示衷心的感谢,不辞辛苦的为我们这么一大批学院们给予帮助。接下来是对这21天学习内容的总结:第一章是对深入学习概念的入门了解。首先根据官网上的教程(教程真的很详细)安装了paddlepaddle,并在助教和同学们的帮助下安装了ana原创 2020-08-29 09:04:36 · 612 阅读 · 0 评论 -
[实战题]第二周实践
使用ResNet进行眼睑筛查,代码已经完成,可以直接运行 。题目要求:通过查阅API,使用衰减学习率,通过多次调参数,找到一个最佳的衰减步长,使得loss比原代码中下降的更快请自行绘制修改学习率前后的loss衰减图import cv2import randomimport numpy as np# 对读入的图像数据进行预处理def transform_img(img): # 将图片尺寸缩放道 224x224 img = cv2.resize(img, (224, 2原创 2020-08-23 09:50:19 · 670 阅读 · 0 评论 -
第四章:目标检测YoloV3(上)
目录目标检测发展历程目标检测基础概念边界框(bounding box)锚框(Anchor box)交并比林业病虫害数据集和数据预处理方法介绍读取AI识虫数据集标注信息数据读取和预处理数据读取数据预处理**随机改变亮暗、对比度和颜色等****随机填充****随机裁剪****随机缩放****随机翻转****随机打乱真实框排列顺序****图像增广方法**批量数据读取与加速对计算机而言,能够“看到”的是图像被编码之后的数字,但它很难解高层语义概念,比如图像或者视频帧中出现目标的是人还是物体,更无法定位目标出现在图原创 2020-08-21 17:01:59 · 2163 阅读 · 1 评论 -
第三章:计算机视觉(下)
目录LeNetLeNet在手写数字识别上的应用LeNet 识别手写数字LeNet在眼疾识别数据集iChallenge-PM上的应用数据集准备查看数据集图片定义数据读取器启动训练AlexNetVGGGoogLeNetResNet小结参考文献图像分类是根据 图像的语义信息 对不同类别图像进行区分,是计算机视觉的核心,是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其他高层次视觉任务的基础。图像分类在许多领域都有着广泛的应用,如:安防领域的人脸识别和智能视频分析等交通领域的交通场景识别互联网领域基于原创 2020-08-20 17:51:32 · 1259 阅读 · 1 评论 -
第三章:计算机视觉(上)(中)
目录计算机视觉的发展历程卷积神经网络卷积(Convolution)卷积计算填充(padding)步幅(stride)感受野(Receptive Field)多输入通道、多输出通道和批量操作飞桨卷积API介绍卷积算子应用举例池化(Pooling)ReLU激活函数批归一化(Batch Normalization)丢弃法(Dropout)小结计算机视觉作为一门让机器学会如何去“看”的科学学科,具体的说,就是 让机器去识别摄像机拍摄的图片或视频中的物体,检测出物体所在的位置,并对目标物体进行跟踪,从而理解并描述出原创 2020-08-18 19:22:02 · 919 阅读 · 0 评论 -
第一周实践作业
作业任务课程中以1张图片为例,测试了预测效果。请从原始mnist数据集中,『随机抽取』100张图片,测试模型的分类准确率。import osimport randomimport paddleimport paddle.fluid as fluidfrom paddle.fluid.dygraph.nn import Conv2D, Pool2D, Linearimport numpy as npfrom PIL import Imageimport gzipimport json原创 2020-08-16 16:02:28 · 615 阅读 · 0 评论 -
(笔记)第二章:一个案例吃透深度学习(下)
目录一、【手写数字识别】之资源配置概述前提条件单GPU训练分布式训练模型并行数据并行PRC通信方式NCCL2通信方式(Collective)二、【手写数字识别】之训练调试与优化概述计算模型的分类准确率检查模型训练过程,识别潜在训练问题加入校验或测试,更好评价模型效果加入正则化项,避免模型过拟合过拟合现象导致过拟合原因过拟合的成因与防控正则化项可视化分析使用Matplotlib库绘制损失随训练下降的曲线图三、【手写数字识别】之恢复训练模型加载及恢复训练恢复训练一、【手写数字识别】之资源配置概述无论是房价原创 2020-08-15 18:32:19 · 918 阅读 · 0 评论 -
(笔记)第二章:一个案例吃透深度学习(中)
目录一、【手写数字识别】之网络结构数据处理经典的全连接神经网络卷积神经网络二、【手写数字识别】之损失函数Softmax函数交叉熵交叉熵的代码实现三、【手写数字识别】之优化算法设置学习率学习率的主流优化算法一、【手写数字识别】之网络结构之前我们用与房价预测相同的简单神经网络解决手写数字识别问题,但是效果并不理想。原因:是手写数字识别的输入是28 × 28的像素值,输出是0-9的数字标签。而线性回归模型无法捕捉二维图像数据中蕴含的复杂信息,牛顿第二定律任务以及房价预测任务,输入特征和输出预测值之间的关系均原创 2020-08-15 11:52:39 · 1131 阅读 · 0 评论 -
(笔记)第二章:一个案例吃透深度学习(上)
第二章主要通过手写数字识别的案例来介绍深度学习目录一. 使用飞桨完成手写数字识别模型手写数字识别任务MNIST数据集构建手写数字识别的神经网络模型代码比较二. 通过极简方案快速构建手写数字识别模型前提条件数据处理模型设计训练配置训练过程模型测试三.【手写数字识别】之数据处理概述前提条件读入数据并划分数据集训练样本乱序、生成批次数据校验数据有效性封装数据读取与处理函数异步数据读取一. 使用飞桨完成手写数字识别模型手写数字识别任务数字识别是计算机从纸质文档、照片或其他来源接收、理解并识别可读的数字的能力原创 2020-08-13 18:44:30 · 16093 阅读 · 2 评论 -
波士顿房价预测任务
构建波士顿房价预测任务的神经网络模型一、数据处理数据处理包含五个部分:数据导入、数据形状变换、数据集划分、数据归一化处理和封装load data函数。数据预处理后,才能被模型调用。读入数据:通过读入数据,了解波士顿房价的数据集结构。数据形状变换:由于读入的原始数据是1维的,所有数据都连在一起。因此需要我们将数据的形状进行变换,形成一个2维的矩阵,每行为一个数据样本(14个值),每个数据样本包含13个X(影响房价的特征)和一个Y(该类型房屋的均价)。划分数据集 :将数据集划分成训练集和测试集,其原创 2020-08-12 22:52:17 · 18594 阅读 · 0 评论 -
Paddle飞浆百度架构师手把手带你零基础实践深度学习21打卡计划(持续更新ing~)
课程链接https://aistudio.baidu.com/aistudio/education/group/info/1297预习作业1. 安装环境2. 九九乘法表for i in range (10): for j in range(1, i+1): print('{}*{}={:-2}'.format(j,i,j*i),end=' ') if i==j: print()趁假期弥补一下不足,大家一起加油!..原创 2020-08-11 11:22:37 · 16621 阅读 · 0 评论