
深度学习
J-JunLiang
一个热爱挖掘的数据从业者,勤学好问、动手达人,公仔厂的一位码农,期待与大家一起交流探讨机器学习相关内容~
展开
-
《深度学习工程师-吴恩达》02改善深层神经网络--深度学习的实用层面 总结
深度学习的实用层面 学习总结 1.重点归纳 1)数据划分 (1)一般情况下我们会把数据分为训练集、验证集和测试集,但有些时候不需要无偏估计时只划分为训练集和测试集。 (2)数据集比较少时,可以按60%,20%,20%的比例划分数据集。 (3)数据集很大时,并不需要大量的数据(验证集)来选择模型,也不需要大量的数据(测试集)来评估模型。如100万的数据集可以按98%,1%,1%来划分...原创 2019-01-05 17:14:05 · 638 阅读 · 0 评论 -
《深度学习工程师-吴恩达》05序列模型—序列模型和注意力机制 学习总结
《深度学习工程师-吴恩达》05序列模型—序列模型和注意力机制 学习笔记 作者:jliang https://blog.youkuaiyun.com/jliang3 1.重点归纳 1)基础模型 (1)Sequence to sequence翻译模型 (2)Image to sequence图像描述模型:输入一张图片,它能自动地输出图片的描述 2)机...原创 2019-04-07 16:21:38 · 1071 阅读 · 0 评论 -
Batch Normalization原理及其TensorFlow实现——为了减少深度神经网络中的internal covariate shift,论文中提出了Batch Normalization算
Batch Normalization原理及其TensorFlow实现——为了减少深度神经网络中的internal covariate shift,论文中提出了Batch Normalization算法,首先是对”每一层“的输入做一个Batch Normalization 变换 批标准化(Bactch Normalization,BN)是为了克服神经网络加深导致难以训练而诞生的,随着神经网络深度...转载 2019-02-25 20:14:06 · 267 阅读 · 0 评论 -
聊天机器人(chatbot)终极指南:自然语言处理(NLP)和深度机器学习(Deep Machine Learning)
为了这份爱 在过去的几个月中,我一直在收集自然语言处理(NLP)以及如何将NLP和深度学习(Deep Learning)应用到聊天机器人(Chatbots)方面的最好的资料。 时不时地我会发现一个出色的资源,因此我很快就开始把这些资源编制成列表。 不久,我就发现自己开始与bot开发人员和bot社区的其他人共享这份清单以及一些非常有用的文章了。 在这个过程中,我的名单变成了一个指南,经过一些好...转载 2019-02-18 12:29:16 · 719 阅读 · 0 评论 -
《深度学习工程师-吴恩达》04结构化机器学习项目--机器学习(ML)策略1 总结 (如何进一步优化系统的方法论)
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》04结构化机器学习项目--机器学习(ML)策略1 学习总结 1.重点归纳 1)ML策略(机器学习策略)就是如何构建你的机器学习项目,目的是快速有效的方法能够判断哪些想法是靠谱的,或者甚至提出新的想法,判断哪些值得一试的想法,哪些是可以放心舍弃的。 2)正交化 (1)正交...原创 2019-02-17 16:36:04 · 3695 阅读 · 0 评论 -
史上最全TensorFlow学习资源汇总https://blog.youkuaiyun.com/kkfd1002/article/details/79906208
来源 | 悦动智能(公众号ID:aibbtcom) 本篇文章将为大家总结TensorFlow纯干货学习资源,非常适合新手学习,建议大家收藏。 ▌一 、TensorFlow教程资源 1)适合初学者的TensorFlow教程和代码示例: https://github.com/aymericdamien/TensorFlow-Examples 该教程不光提供了一些经典的数据集,更是从实现最简单...转载 2019-02-16 17:56:51 · 1573 阅读 · 0 评论 -
《深度学习工程师-吴恩达》04结构化机器学习项目--机器学习(ML)策略2 笔记(如何进行误差分析)
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》04结构化机器学习项目--机器学习(ML)策略2 学习笔记 1.重点归纳 1)误差分析:如果算法还达不到理想效果,那么人工检查一下算法所犯的错误,也许可以让你了解接下来应该做什么,这个过程称为误差分析。 (1)例子:一个取得90%准确率猫分类器,注意到有部分狗样本被识别为猫,使...原创 2019-02-21 20:39:06 · 7539 阅读 · 0 评论 -
《深度学习工程师-吴恩达》03卷积神经网络—特殊应用:人脸识别和神经风格转换 总结
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》03卷积神经网络—特殊应用:人脸识别和神经风格转换 学习总结 1.重点归纳 1)人脸识别 (1)人脸验证:输入图片以及某人ID/姓名,系统会验证输入图片是否这个人,1对1问题 (2)人脸识别:1对多问题,输入图片验证图片是否为已有用户。比验证问题复杂多了,准确率为99%的验证...原创 2019-01-22 21:19:04 · 1871 阅读 · 0 评论 -
《深度学习工程师-吴恩达》05序列模型--自然语言处理与词嵌入 总结
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》05序列模型--自然语言处理与词嵌入 学习总结 1.重点归纳 1)词汇表征 (1)词嵌入是语言表示的一种方式,可以让算法自动理解一些类似的词,...原创 2019-02-01 16:30:56 · 2184 阅读 · 0 评论 -
《深度学习工程师-吴恩达》05序列模型--循环序列模型 总结
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》04序列模型--循环序列模型 学习总结 1.重点归纳 1)循环神经网络(RNN) (1)循环神经网络(RNN)之类的模型在语音识别、自然语言处理和其他领域中一起变革,它属于监督学习,X和Y有时会不一样长,有时候会一样长。 (2)例子:语音识别、音乐生成、文本情感分...原创 2019-01-26 18:34:47 · 1082 阅读 · 0 评论 -
《深度学习工程师-吴恩达》03卷积神经网络—深度卷积网络:实例探究 总结
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》03卷积神经网络—深度卷积网络:实例探究 学习总结 1.重点归纳 1)计算机视觉领域经典的神经网络 (1)LeNet-5 (2)AlexNet (3)VGG 2)LeNet-5 这个网络很小只有60k个参数,而现代网络含有一千万到一亿个参数...原创 2019-01-15 19:44:38 · 3513 阅读 · 2 评论 -
《深度学习工程师-吴恩达》02改善深层神经网络--超参数优化、batch正则化和程序框架 总结
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》02改善深层神经网络--超参数优化、batch正则化和程序框架 学习总结 1.重点归纳 1)经常需要调试的神经网络参数,重要性由高至低罗列 学习率α Momentum算法参数β、mini-batch size、隐藏单元数量 层数、学习率...原创 2019-01-09 20:15:31 · 1096 阅读 · 2 评论 -
《深度学习工程师-吴恩达》03卷积神经网络—目标检测 总结
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》03卷积神经网络—目标检测 学习总结 1.重点归纳 1)目标定位 (1)只是检测图像类型时,只需要使用softmax输出每种类型的概率即可。当需要检测图像类型并且其在图像中的位置时,还需要输出被检测对象的边界框参数bounding box。 (2)输出label定义(图像...原创 2019-01-19 19:04:32 · 2850 阅读 · 0 评论 -
《深度学习工程师-吴恩达》03卷积神经网络—卷积神经网络 总结
作者:jliang https://blog.youkuaiyun.com/jliang3 《深度学习工程师-吴恩达》03卷积神经网络—卷积神经网络 学习总结 1.重点归纳 1)神经网络解决的视觉问题 (1)图片分类 (2)目标检测 (3)图片风格迁移 2)卷积神经网络的padding (1)不进行padding时存在的问题 图像会缩小 在边缘区域的像素点在输出中采用较少,意...原创 2019-01-12 18:36:02 · 1753 阅读 · 0 评论 -
《深度学习工程师-吴恩达》02改善深层神经网络--优化算法 总结
《深度学习工程师-吴恩达》02改善深层神经网络--优化算法 学习总结 1.重点归纳 1)Mini-batch梯度下降法 (1)把训练集划分为多个子集,每个子集为一个mini-batch,使用每个mini-batch的数据进行训练,每次只需要处理一个mini-batch的训练集就能进行一步梯度下降法。 (2)mini-batch梯度下降法比batch梯度下降法运行更快。 (3)...原创 2019-01-07 13:25:38 · 812 阅读 · 0 评论 -
如何选择合适的损失函数
【AI科技大本营导读】机器学习中的所有算法都依赖于最小化或最大化某一个函数,我们称之为“目标函数”。最小化的这组函数被称为“损失函数”。损失函数是衡量预测模型预测期望结果表现的指标。寻找函数最小值的最常用方法是“梯度下降”。把损失函数想象成起伏的山脉,梯度下降就像从山顶滑下,目的是到达山脉的最低点。 没有一个损失函数可以适用于所有类型的数据。损失函数的选择取决于许多因素,包括是否有离群点,...转载 2019-05-10 19:30:36 · 2712 阅读 · 0 评论