吴恩达深度学习课程笔记
方便后期复习,制作深度学习笔记专栏
于大大想要去旅行
新手一枚研究生入坑
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
吴恩达深度学习:第四课:卷积神经网络 第一周:卷积神经网络
文章目录1.1 计算机视觉1.2 边缘检测示例1.3 更多边缘检测内容1.4 Padding当发生卷积运算的时候,会出现两个缺点两种卷积的方法Valid"Same"1.5 卷积步长(Strided convolutions)额外说明 1.1 计算机视觉 图片过大,参数过多,需要卷积的方式缩小维度 1.2 边缘检测示例 [10−110−110−1] \left[\begin{array}{lll} ...原创 2020-03-06 20:49:53 · 935 阅读 · 0 评论 -
吴恩达深度学习:第三课:结构化机器学习项目 第一周:机器学习(ML)策略(2)
文章目录2.1 进行误差分析2.2 清除标注错误的数据2.3 快速搭建你的第一个系统,并进行迭代2.4 使用来自不同分布的数据进行训练和测试2.5 数据分布不匹配时的偏差与方差的分析 2.1 进行误差分析 收集错误标本,人工查看结果,分析矛盾主要来源。 利用图表,根据现有的可能情况分析主要矛盾点,着重优化。 2.2 清除标注错误的数据 深度学习算法对随机误差很健壮,但对系统性的错误就没那么健壮了...原创 2020-03-03 20:49:28 · 220 阅读 · 0 评论 -
吴恩达深度学习:第三课:结构化机器学习项目 第一周:机器学习(ML)策略(1)
文章目录1.1 为什么是ML策略?1.2 正交化1.3 单一数字评估指标查准率(precision)查全率(recall)引入一段西瓜书的内容理解查准率(precision)& 查全率(recall)查准率(precision)& 查全率(recall)的关系通过F1数值来选取最优的模型1.4 满足和优化指标1.5 训练/开发/测试集划分1.6 开发集和测试集的大小 1.1 为什么...原创 2020-02-28 18:33:59 · 901 阅读 · 0 评论 -
吴恩达深度学习:第二课,第三周:超参数调试、正则化以及优化
文章目录调试处理超参数谁比较重要随机提取点为超参数选择合适的范围均匀分配aaa关于分配β\betaβ超参数训练的实践:pandas Vs Caviar如何搜索超参数的两个流派归一化网络的激活函数Batch归一化将 Batch Norm 拟合进神经网络正向传播的时候反向传播,梯度下降的时候 调试处理 超参数谁比较重要 其中红色最重要的是aaa步长。然后是βββ,隐藏层单元数量,mini-batch...原创 2020-02-23 19:40:25 · 708 阅读 · 0 评论 -
吴恩达深度学习:第二课,第二周:优化算法
文章目录Mini-batch 梯度下降法符号定义前向传播后向传播理解mini-batch 梯度下降法J代价函数的不同用1个样本为一个mini-batch和全部样本为一个mini-batch举例合理的簇大小指数加权平均理解指数加权平均指数加权平均的偏差修正动量梯度下降法优化成本函数RMSprop算法Adam 优化算法算法公式:该算法的超参数学习率衰减局部最优的问题 Mini-batch 梯度下降法 ...原创 2020-02-20 20:58:06 · 377 阅读 · 0 评论
分享