
机器学习-吴恩达
鲁伯特之泪的心
程序猿这门职业,就是属于“明知山有虎,偏向虎山行”的那种,网络上、身边虽然流传着这有多苦逼多累,各个秃顶的说法,不过这门行业属于紧缺型人才,需求量大,正符合国家的人工智能趋势。
愿你有鲁伯特之泪的心,万物不催;也有一人终知你心,稍纵即逝。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
第三周2--带有一个隐藏层的平面数据分类(编程部分)
本周编程目标为实现建立含有单个隐藏层的神经网络,进行二分类测试(0-红色,1-蓝色),分为以下几个步骤:加载和查看数据集查看简单的Logistic回归的分类效果搭建神经网络定义神经网络结构初始化模型的参数循环整合预测正式运行运行结果:X的维度为: (2, 400)Y的维度为: (1, 400)数据集里面的数据有:400 个第 0 次循环,成本为:0.6930480201239823第 1000 次循环,成本为:0.3098018601352803第 2000 次循原创 2020-08-20 20:50:04 · 675 阅读 · 0 评论 -
第三周--浅层神经网络(测验)
您已经为所有隐藏单元使用tanh激活建立了一个网络。 使用np.random.randn(…,…)* 1000将权重初始化为相对较大的值。 会发生什么?【 】这没关系。只要随机初始化权重,梯度下降不受权重大小的影响。【 】这将导致tanh的输入也非常大,因此导致梯度也变大。因此,您必须将α设置得非常小以防止发散; 这会减慢学习速度。【 】这会导致tanh的输入也非常大,导致单位被“高度激活”,从而加快了学习速度,而权重必须从小数值开始。【★】这将导致tanh的输入也很大,因此导致梯度接近于零, .原创 2020-08-18 09:29:17 · 291 阅读 · 0 评论 -
第二周2--具有神经网络思维的Logistic回归(编程)
```python# -*- coding: utf-8 -*-""""""import numpy as npimport matplotlib.pyplot as pltimport h5pyfrom lr_utils import load_datasettrain_set_x_orig , train_set_y , test_set_x_orig , test_set_y , classes = load_dataset()m_train = train_set_y.sh.原创 2020-07-25 11:43:32 · 260 阅读 · 0 评论 -
第二周--神经网络基础(测验部分)
1.看一下下面的这两个随机数组“a”和“b”:a = np.random.randn(4, 3) # a.shape = (4, 3)b = np.random.randn(3, 2) # b.shape = (3, 2)c = a * b123请问数组“c”的维度是多少?答:运算符 “*” 说明了按元素乘法来相乘,但是元素乘法需要两个矩阵之间的维数相同,所以这将报错,无法计算。2.看一下下面的代码:a = np.random.randn(3, 3)b = np.random.rand原创 2020-07-24 15:05:46 · 405 阅读 · 0 评论 -
第一周--深度学习简介
7月16日 完成第一周学习附上【中英】【吴恩达课后测验】Course 1 - 神经网络和深度学习 - 第一周测验完成的还算不错,大致能理解。原创 2020-07-23 17:36:07 · 147 阅读 · 0 评论 -
最近在学吴恩达的《机器学习》
【目录】【中文】【deplearning.ai】【吴恩达课后作业目录】转自:https://blog.youkuaiyun.com/u013733326/article/details/79827273感谢大佬的整理与分享!!!转载 2020-06-27 17:06:15 · 228 阅读 · 0 评论