
深度学习
c_木ss
走还没有走过的路
展开
-
对卷积神经网络、池化层、反卷积以及Text-CNN原理的理解
今天,我们来讨论一下卷积,以及卷积神经网络,这里边具体怎么运算的,请看下面分析:首先选取知乎上对卷积物理意义解答排名最靠前的回答。 然后再来看分析卷积神经网络1、卷积来自知乎的优秀回答!不推荐用“反转/翻转/反褶/对称”等解释卷积。好好的信号为什么要翻转?导致学生难以理解卷积的物理意义。这个其实非常简单的概念,国内的大多数教材却没有讲透。卷积是分析数学中一种重要的运算。设: f(x)...原创 2019-03-15 09:25:05 · 2916 阅读 · 0 评论 -
人工神经网络知识、激活函数、正则化、优化技术、Batch Normalization、Layer Normalization
目录:1、神经网络基础概念2、激活函数3、深度学习中的正则化4、深度模型中的优化技术5、batch norm层6、Layer Normalization1、神经网络基础概念前言对于人工智能,相比大家都经常会听到。各大新闻媒体每天都对一些人工智能项目进行报道,且人工智能如何如何。今天我们就来学习一下人工智能中用到最重要之一的深度学习知识。我们会对神经网络进行介绍,接下来我们就开始吧...原创 2019-03-11 16:53:30 · 2107 阅读 · 0 评论 -
通俗易懂的RNN总结(包含LSTM/GRU/BPTT等)
1、RNN介绍:RNN的基本想法是如何采用序列信息。在传统神经网络中我们假设所有的输入和输出都是相互独立的,但对于很多任务这样的假设并不合适。如果你想预测一个句子的下一个单词,的则需要知道之前的words包括哪些。RNN被称为循环因为它们对句子的每个元素都执行相同的任务,输出依赖于之前的计算;另一个理解RNN的方法是假设他们用记忆能够获取之前计算过的信息。理论上RNN能够利用任意长的句子,但是...原创 2019-03-17 21:49:25 · 3820 阅读 · 0 评论 -
Attention 注意力机制
文章来源:https://www.zhihu.com/question/68482809/answer/264632289注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。人类的视觉注意力从注意力模型的命名方式看,很明显...原创 2019-03-19 10:50:44 · 2947 阅读 · 1 评论