
深度学习
夜空骑士
我是一名数据玩家,对数据行业的知识有着极大的学习热情,在数据分析、数据挖掘、大数据、人工智能等多个方面均有所涉猎,致力于将数据技术应用于各个行业领域,不断提升自我、完善自我、充实自我,并与数据爱好者共同分享、共同进步、共同成长!数据之路,前路漫漫,你我同在,互动前行!
展开
-
【深度学习】百度飞桨PaddlePaddle-CV疫情特辑课程学习心得
最近参加了百度AI Studio的深度学习7日入门-CV疫情特辑课程,通过课程来入手学习深度学习框架-PaddlePaddle,同时学习深度学习的相关网络模型,本博客分享在学习过程中的一些心得。1、通过对该课程的学习,首先了解了PaddlePaddle深度学习框架,然后在本地进行了安装使用;飞桨本地安装可参考飞桨官网:https://www.paddlepaddle.org.cn/docume...原创 2020-04-07 17:59:42 · 1362 阅读 · 0 评论 -
【深度学习】通俗易懂讲解循环神经网络LSTM
目录1、循环神经网络(Recurrent Neural Networks)2、长依赖存在的问题3、LSTM 网络4、LSTMs的核心思想5、一步一步理解LSTM6、LSTM的变种7、总结1、循环神经网络(Recurrent Neural Networks)人对一个问题的思考不会完全从头开始。比如你在阅读本片文章的时,你会根据之前理解过的信息来理解下面看到的文字。...原创 2020-03-27 22:48:09 · 2380 阅读 · 0 评论 -
【深度学习】深度学习中的10类激活函数
深度学习中常用的的激活函数包括了:sigmoid、tanh、ReLU 、Leaky Relu、RReLU、softsign、softplus。激活函数可以分为两大类:饱和激活函数:sigmoid、 tanh 非饱和激活函数:ReLU 、Leaky Relu 、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】相对于饱和激活函数,使用“非...原创 2019-11-18 17:41:49 · 1769 阅读 · 0 评论 -
【深度学习】卷积神经网络发展史从LeNet到AlexNet
本文主要讨论CNN的发展,并且引用刘昕博士的思路,对CNN的发展作一个更加详细的介绍,将按下图的CNN发展史进行描述:上图所示是刘昕博士总结的CNN结构演化的历史,起点是神经认知机模型,此时已经出现了卷积结构,经典的LeNet诞生于1998年。然而之后CNN的锋芒开始被SVM等手工设计的特征盖过。随着ReLU和dropout的提出,以及GPU和大数据带来的历史机遇,CNN在2012年迎来了...原创 2019-11-11 20:12:14 · 2781 阅读 · 0 评论