
机器学习
十一号路口。
博客仅用于本人记录学习笔记!
展开
-
(转)空洞卷积讲解
目录 一、空洞卷积的提出 二、空洞卷积原理 三、空洞卷积问题 感受野跳跃 小尺度物体检测 四、网络设计研究 五、常用框架API介绍 TensorFlow接口 MXNet接口 六、参考来源 回到顶部 一、空洞卷积的提出 空洞卷积(atrous convolutions)又名扩张卷积(dilated convolutions),向卷积层引入了一个称为 “扩张率...转载 2019-12-28 16:18:43 · 2389 阅读 · 0 评论 -
(转)Faster RCNN原理详解
http://www.telesens.co/2018/03/11/object-detection-and-classification-using-r-cnns/#Calculating_Classification_Layer_Loss Object Detection and Classification using R-CNNs March 11, 2018ankur6ueC...转载 2019-12-26 11:03:16 · 492 阅读 · 0 评论 -
(转)零基础入门深度学习(4) --- 卷积神经网络
在前面的文章中,我们介绍了全连接神经网络,以及它的训练和使用。我们用它来识别了手写数字,然而,这种结构的网络对于图像识别任务来说并不是很合适。本文将要介绍一种更适合图像、语音识别任务的神经网络结构——卷积神经网络(Convolutional Neural Network, CNN)。说卷积神经网络是最重要的一种神经网络也不为过,它在最近几年大放异彩,几乎所有图像、语音识别领域的重要突破都是卷积神经...转载 2019-11-30 17:44:59 · 366 阅读 · 1 评论 -
(转)【深度学习】深入理解Batch Normalization批标准化
Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《Batch Normalization: Accelerating Deep Network Training ...转载 2019-11-29 09:54:40 · 219 阅读 · 0 评论 -
(转)CS231n Assignment2 Support Vector Machine
Begin 本文主要介绍CS231N系列课程的第一项作业,写一个SVM无监督学习训练模型。 课程主页:网易云课堂CS231N系列课程 语言:Python3.6 1线形分类器 以图像为例,一幅图像像素为32*32*3代表长32宽32有3通道的衣服图像,将其变为1*3072的一个向量,即该图像的特征向量。 我们如果需要训练1000幅图像,那么输入则为1000*3...转载 2019-11-21 15:46:53 · 179 阅读 · 0 评论 -
(转)使用pyplot中scatter画散点图
使用pyplot中scatter画散点图 在机器学习任务中,为了更好地训练模型,我们通常会先可视化观察下数据集,比如如果我们的数据集不是线性可分的,那么此时你如果还是使用logistics regression等模型训练出来的效果也不会太好。(ps.多说一句,如果数据集不是线性可分的,一般选择使用神经网络,额。。好吧,绕不开的神经网络,但是三十年河东三十年河西,以后会是什么模型风靡...转载 2019-10-26 14:51:21 · 546 阅读 · 0 评论 -
(转)什么是极大似然估计
导语 统计学中,我们经常能听到极大似然估计,或者最大似然估计,它是一种参数估计方法。在机器学习中,逻辑回归就是基于极大似然估计来计算的损失函数。那么,如何直观理解极大似然估计? 极大似然估计 极大似然估计(maximum likelihood estimation,MLE),顾名思义,“极大”意为“最有可能的”,“似然”意为“看起来像的”,“估计”的意思则可以理解为“就是这样的”。 所以,极大...转载 2019-10-26 11:02:48 · 397 阅读 · 0 评论 -
(转)深度学习入门路线
/*------深度学习理论------------------------**/ 1. 深度学习介绍、全连接神经网络 为什么要做深读学习而不是宽度学习? 2. 反向传播算法 BP算法手工推导 3.使用Keras实现全连接神经网络完成手写数字识别 4. mini-batch Gradient Descent 5.神经网络的优化(0)...转载 2019-10-26 10:41:11 · 259 阅读 · 0 评论 -
(转)详解机器学习中的熵、条件熵、相对熵和交叉熵
原文https://www.cnblogs.com/kyrieng/p/8694705.html 目录 信息熵 条件熵 相对熵 交叉熵 总结 1、信息熵(information entropy) 熵 (entropy) 这一词最初来源于热力学。1948年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以也被称为香农熵 (Shannon entropy),信息熵 (inf...转载 2019-05-15 10:51:38 · 296 阅读 · 0 评论