
Deep Learning Coursera
Eden朱
我们并非在年复一年地变老,而是日复一日地焕然一新
展开
-
06-(第二课)第二周作业:优化算法
1. 梯度下降A simple optimization method in machine learning is gradient descent (GD). When you take gradient steps with respect to all mm examples on each step, it is also called Batch Gradient Descent.原创 2018-01-20 15:29:48 · 1487 阅读 · 0 评论 -
05-(第二课)第一周作业:深度学习的实用层面
1. Initalization 1.1 神经网络模型You will use a 3-layer neural network (already implemented for you). Here are the initialization methods you will experiment with: (你将使用一个三层神经网络(不包含输入层). 下面的初始化方法将原创 2018-01-15 20:51:07 · 1670 阅读 · 0 评论 -
02-浅层神经网络
1.BP算法推导2. 作业分析2.1网络model: 2.2 构建神经网络的总体方法论 2.3 Loop 循环中的算法实现前向传播def forward_propagation(X, parameters): """ Argument: X -- input data of size (n_x, m) paramete原创 2018-01-06 16:08:17 · 330 阅读 · 0 评论 -
04-(第二课)第一周笔记:深度学习的实用层面
1. 训练,验证,测试集 创建新应用的过程中,我们不可能从一开始就准确预测出这些信息和其他超参数。实际上,应用型机器学习是一个高度迭代的过程,通常在项目启动时,我们会先有一个初步想法,比如构建一个含有特定层数,隐藏单元数量或数据集个数等等的神经网络,然后编码,并尝试运行这些代码。根据输出结果重新完善自己的想法,改变策略,为了找到更好的神经网络不断迭代更新自己的方案。因此循环该过程的效率是原创 2018-01-14 10:37:28 · 1205 阅读 · 0 评论 -
03-(第一课)第四周作业:深层神经网络
1. Building your Deep Neural Network: Step by Step 1.1 作业大纲 为了搭建你的神经网络,你将实现几个”helper functions”.这几个函数将在下次作业被用于搭建两层和LL层神经网络.下面是这次作业的大纲,你将:为两层和LL层神经网络初始化参数实现前向传播模块(下图的紫色区域) 完成一层的前向传播LINEA原创 2018-01-09 10:54:31 · 555 阅读 · 0 评论 -
01-逻辑回归的代价函数(交叉熵代价函数)以及梯度下降法
1.1 逻辑回归的代价函数1.2 逻辑回归中的梯度下降法参考文献 吴恩达老师Deep Learning课程原创 2018-01-06 15:59:33 · 2350 阅读 · 0 评论 -
TensorFlow
TensorflowWelcome to the Tensorflow Tutorial! In this notebook you will learn all the basics of Tensorflow. You will implement useful functions and draw the parallel with what you did using Numpy. Y原创 2018-01-28 16:20:27 · 1045 阅读 · 0 评论