
深度学习基础知识
文章平均质量分 69
柏拉图工作室-AI学科
这个作者很懒,什么都没留下…
展开
-
【转】从头到尾彻底理解KMP
从头到尾彻底理解KMP 作者:July 时间:最初写于2011年12月,2014年7月21日晚10点 全部删除重写成此文,随后的半个多月不断反复改进。后收录于新书《编程之法:面试和算法心得》第4.4节中。 1. 引言 本KMP原文最初写于2年多前的2011年12月,因当时初次接触KMP,思路混乱导致写也写得混乱。所以一直想找机会重新写下KMP,但苦于一直以来对KMP的理解始...转载 2021-12-22 14:51:12 · 8963 阅读 · 0 评论 -
【转】程序员面试、算法研究、编程艺术、红黑树、机器学习5大经典原创系列集锦与总结
程序员面试、算法研究、编程艺术、红黑树、机器学习5大经典原创系列集锦与总结 作者:July--结构之法算法之道blog之博主。 时间:2010年10月-2018年5月,一直在不断更新中.. 出处:http://blog.youkuaiyun.com/v_JULY_v 。 说明:本博客中部分文章经过不断修改、优化,已集结出版成书《编程之法:面试和算法心得》。 前言 &...转载 2021-12-22 14:09:00 · 8339 阅读 · 0 评论 -
深度学习之BN
在介绍BN之前,我们首先要知道一个很重要的前提:IID独立同分布假设,就是假设训练数据和测试数据是满足相同分布的BN的作用?BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。BN的启发来源之前的研究表明如果在图像处理中对输入图像进行白化【就是对输入数据分布变换到0均值,单位方差的正态分布】操作的话,神经网络会较快收敛。那么BN作者就开始推论:图像是深度神经网络的输入层,做白化能加快收敛,那么其实对于深度神经网络来说,深度神经网络的每一个隐层都是输入层,不过是相对下原创 2021-01-08 14:49:23 · 835 阅读 · 0 评论 -
梯度下降直观理解
提到梯度下降,我们首先想到的就是一堆密密麻麻的公式,但是我们的最终目的不是要看这个公式长什么样,二十理解梯度下降的作用,以后遇到相似的问题,我们可以自己去修改公式,来达到我们最后的结果。梯度下降,从名字来看,我们首先要知道梯度是什么,下降就比较直观了。什么是梯度?梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。我们可以理解为斜率。从数学上来解释一下,我们对一个多元函数求偏导,会得到多个偏导原创 2021-01-07 14:18:08 · 952 阅读 · 0 评论 -
深度学习之评价指标
分类涉及到的评价指标特别多,不是这个率就是那个率,很容易混淆,这篇文章就梳理下分类模型的评价指标。为了解释混淆矩阵,先来看看下⾯这个⼆分类的例⼦。例:有20个病⼈来医院检查,是否患病的预测值和真实值如下表所⽰。病号预测值真实值病号预测值真实值11111002001200301130041014115001500611161070017118001800原创 2020-12-28 14:14:43 · 1722 阅读 · 0 评论 -
人工智能--CV视觉方向详细知识体系总结(2021新)
本文专注整理一些有关计算机视觉的知识体系,这不是最终版,会不定期的更新。整理的CV知识体系主要包括基础知识,工具,图像分类,目标检测,图像分割,目标跟踪,人脸识别,推荐书籍以及一些常见面试题目,包含了作为一个CV工程师在开发工作学习中需要用到或者可能用到的绝大部分知识。千里之行始于足下,希望大家根据自己的薄弱点,查缺补漏,根据自己感兴趣的方面多学习,学的精通一点,从现在开始行动起来。路漫漫其修远兮,吾将上下而求索,不管编程开发的路有多么难走,多么艰辛,我们都将百折不挠,不遗余力地去追求和探索。文章目录工原创 2020-12-18 09:41:50 · 16478 阅读 · 20 评论 -
深度学习基础知识之卷积
在计算机视觉中,必不可少的就是卷积了,卷积其实时信号处理中的一个概念,从信号处理角度来理解卷积的物理意义:推荐看此文章的举例说明部分:https://www.jianshu.com/p/0aafb2211304那么CNN中的卷积是什么样的?先来解释几个概念。图像的定义:一个二维函数f(x,y)f(x,y)f(x,y),xxx和yyy是空间坐标,而fff在任意坐标(x,y)(x,y)(x,y)处的幅度称为图像在该点处的亮度或者灰度。xxx和yyy对应我们一幅图像的宽高,宽高相乘就是图像的分辨率。坐原创 2020-10-31 14:43:28 · 1136 阅读 · 1 评论 -
深度学习基础知识之反向传播
一提到机器学习,深度学习,一定听到过反向传播,神经网络的反向传播是为了求出误差,就是求出权重 www和偏置bbb是如何影响我们的损失函数 CCC的大小,也就是误差。如何计算误差呢?就是利用链式求导法则,求出CCC对www和bbb的导数,δCδw,δCδb\frac{\delta C}{\delta w},\frac{\delta C}{\delta b}δwδC,δbδC,那么C,w,bC,w,bC,w,b都是哪里来的呢?也就是前向传播。所以我们想要进行反向传播的公式推导,那么我们首先要知道前向传播。原创 2020-10-24 17:09:32 · 404 阅读 · 0 评论 -
深度学习基础知识之激活函数
在深度视觉的三大基本任务中,我们构建一个卷积神经网络,激活函数是必不可少的,例如sigmoid,relu等,下面我们来介绍下激活函数。什么是激活函数?神经网络中每层的输入是上一层的输出,每层输出是下一层的输入,所以在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数。如图所示:除输入层外,每个神经元被分成两部分,第一部分就是上一层的输入要经过一个函数,即激活函数;第二部分就是经过激活函数之后的值,作为下一层的输入。为什么要用激活函数?不使用激活函数的话,神经原创 2020-10-24 14:44:57 · 934 阅读 · 2 评论