
深度学习
love music.
中山大学计算机博士在读,曾就职于腾讯等公司,目前从事AI多模态大模型研究。
展开
-
python 查看import package/function的具体路径
python 查看import package/function的具体路径原创 2023-02-25 15:56:37 · 214 阅读 · 0 评论 -
使用anaconda安装kears,并在Jupyter Notebook使用
Anaconda中安装kears:创建一个虚拟环境:conda create --name myvenv接下来启动这个虚拟环境:activate myvenv检测目前安装了哪些环境变量:conda info --envs安装ipython:conda install mingw libpython安装theano:conda install theano...原创 2019-03-10 10:45:59 · 5009 阅读 · 6 评论 -
yolo系列之yolo v3【深度解析】
把yolov1与 yolov2论文给看完了,然后看了这篇博客的总结,写得不错,做个标记yolo系列之yolo v3【深度解析】关于吴恩达深度学习对应目标检测作业,这篇博文写得不错:目标检测之YOLOv2,最详细的代码解析...转载 2019-04-01 20:21:04 · 348 阅读 · 0 评论 -
RNN、LSTM反向传播推导详解
在做吴恩达深度学习课程相关作业时,顺便进行了RNN和LSTM的反向传播推导。顺便记录如下,希望能对你有所帮助~RNN前向与反向:模型的整体结构如下图所示,输入的是序列x、输出y,长度为Tx。BasicRNN 前向传播现在我们单独对每个cell进行公式推导,最终整个模型的公式其实就是单个cell的循环调用。下图是单个cell的具体结构图,以及前向传播的公式,非常的简...原创 2019-04-14 12:18:11 · 7075 阅读 · 16 评论 -
BasicRNN 前向与反向实现实例 - (吴恩达作业Character level language model - Dinosaurus land)
关于作业可以直接看这篇博文:https://blog.youkuaiyun.com/JUNJUN_ZHAO/article/details/79409325PS: 实现过程中,查看RNN反向的底层代码原理还是很重要的。底层在对应作业中另一文件下,不难理解。另外关于LSTM可以避免梯度消失问题,可以捕获更长距离的依赖关系。def rnn_step_forward(parameters, a_pre...原创 2019-04-20 10:52:41 · 262 阅读 · 0 评论 -
吴恩达深度学习 注意力机制
机器翻译模型中,有一个很重要的模型就是将序列模型与注意力机制结合起来。具体的在吴恩达深度学习第五门课第三周Neural+machine+translation+with+attention+-+v1 L作业中有使用keras来实现。这里补充一篇博文,因为图也很清晰。注意力机制机器翻译 基于Keras...转载 2019-05-06 13:47:03 · 450 阅读 · 0 评论 -
剑指Offer 数组中唯一只出现一次的数字
题目:在一个数组中除一个数字只出现一次之外,其他数字都出现了三次。请找出那个只出现一次的数字。思路:我们把数组中所有数字的二进制表示的每一位都加起来。如果某一位的和能被3整除,那么那个只出现一次的数字二进制表示中对应的那一位是0;否则就是1。代码如下:#include<iostream>#include<vector>using namespace std...原创 2019-05-06 21:20:55 · 169 阅读 · 0 评论 -
生成对抗网络GAN详解
这里直接贴一篇好的博文:简单理解与实验生成对抗网络GAN参考博文:生成对抗网络——GAN(一)原创 2019-05-15 23:41:24 · 359 阅读 · 0 评论 -
剑指Offer 滑动窗口的最大值(队列的最大值)
题目一:滑动窗口的最大值给定一个数组和滑动窗口的大小,找出所有滑动窗口里数值的最大值。例如,如果输入数组{2,3,4,2,6,2,5,1}及滑动窗口的大小3,那么一共存在6个滑动窗口,他们的最大值分别为{4,4,6,6,6,5}。解析:针对数组{2,3,4,2,6,2,5,1}的滑动窗口有以下6个: {[2,3,4],2,6,2,5,1}, {2,[3,4,2],6,2,5,1}, {2,...原创 2019-05-11 20:18:46 · 170 阅读 · 0 评论 -
深度学习之基础模型-VGG
原文链接:深度学习之基础模型-VGG VGG论文给出了一个非常振奋人心的结论:卷积神经网络的深度增加和小卷积核的使用对网络的最终分类识别效果有很大的作用。记得在AlexNet论文中,也做了最后指出了网络深度的对最终的分类结果有很大的作用。这篇论文则更加直接的论证了这一结论。作者Karen Simonyan ...转载 2019-03-03 20:19:25 · 389 阅读 · 0 评论 -
AlexNet 详细解读
原文链接: AlexNet详细解读参考链接: 1.深度学习的局部响应归一化LRN(Local Response Normalization)理解2.LRN ( Local Response Normalization) 局部响应归一化层 目前在自学计算机视觉与深度学习方向的论文,今天给大家带来的是很经典的...转载 2019-03-01 16:31:31 · 650 阅读 · 0 评论 -
Dropout Regularization(丢弃正则化)
原文链接:添加链接描述Dropout Regularization(丢弃正则化) 为了防止过拟合的问题,我们最常使用的手段就是L2正则化,即在代价函数后面加一个L2正则项。关于L2正则化,我前面的博客已经讲了很多次了,这里就不在赘述了。这篇博客主要介绍下dropout regularization(丢...转载 2019-02-03 10:00:12 · 337 阅读 · 0 评论 -
吴恩达学度学习 改善深层神经网络第二课第一周-Regularization
总结: 防止过拟合的方法用L2正则化或dropout随机失活即可。作业答案可直接看这篇博文: https://blog.youkuaiyun.com/u011324454/article/details/78648568。注意一点: 其中有一处会提示维度不匹配的错误,即c of shape (1, 211) not acceptable as a color sequence for x with s...转载 2019-02-03 12:46:50 · 217 阅读 · 0 评论 -
梯度消失(vanishing gradient)和梯度爆炸(exploding gradient)
原文链接:https://blog.youkuaiyun.com/guoyunfei20/article/details/78283043参考链接:https://www.cnblogs.com/DLlearning/p/8177273.html神经网络中梯度不稳定的根本原因:在于前层上的梯度的计算来自于后层上梯度的乘积(链式法则)。当层数很多时,就容易出现不稳定。下边3个隐含层为例:其b1的...转载 2019-01-30 23:05:16 · 622 阅读 · 0 评论 -
一步一步带你看懂softmax函数以及相关求导过程
原文链接:带你看懂softmax函数以及相关求导过程 这几天学习了一下softmax激活函数,以及它的梯度求导过程,整理一下便于分享和交流!softmax函数softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类!假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的softmax...转载 2019-02-11 12:31:06 · 338 阅读 · 0 评论 -
使用anaconda安装tensorflow,并在Jupyter Notebook使用
参考链接: windows下:1.使用anaconda安装tensorflow (windows10环境) 2.利用Anaconda搭建TensorFlow环境并在Jupyter Notebook使用下面的内容是windows环境下安装,参考了上面这两个博客,可以看两面两个链接的图!一. 安装anaconda1. 下载地址:https://ww...转载 2019-02-11 19:52:25 · 9351 阅读 · 3 评论 -
在Anaconda下安装了TensorFlow库,matplotlib库却调用不了了
原文链接:在Anaconda下安装了TensorFlow库,matplotlib库却调用不了了原因分析:一般在anaconda中安装tensorflow。都是先现建立一个python环境,并将tensorflow安装在该python环境下,这里的python环境名字为tensorflow,但是该环境下没有matplotlib库.所以先到该python环境下安装该库! ...转载 2019-02-12 12:40:43 · 3121 阅读 · 3 评论 -
吴恩达深度学习课程 course4-week1 Convolutional Neural Networks & CNN Application 作业
原文链接:Convolutional Neural Networks &amp;amp;amp;amp;amp; CNN Application 作业 &amp;amp;amp;amp;nbsp; &amp;amp;amp;amp;nbsp; &amp;amp;amp;amp;nbsp; &amp;amp;amp;amp;nbsp; &amp;amp;amp;amp;nbsp转载 2019-02-23 20:12:47 · 1416 阅读 · 0 评论 -
Batch Normalization反向传播公式的推导
原文链接:Batch Normalization反向传播公式的推导代码部分是CS231n的作业。看完推导公式配合作业来加深理解。上面原文已经推导得很清楚了。看原文即可。再附一篇好的博文:Batch Normalization学习笔记及其实现...转载 2019-02-28 21:22:32 · 792 阅读 · 0 评论