
吴恩达
文章平均质量分 83
每个人都是孙笑川
颓废了十年的研一老狗
展开
-
吴恩达深度学习L2W1——神经网络权重初始化方法、正则化
文章目录神经网络的初始化初始化数据模型搭建简单函数零初始化——initialize_parameters_zeros随机初始化——initialize_parameters_randomHe初始化三种初始化结果对比在神经网络中使用正则化导入数据模型搭建非正则化模型L2正则化dropout三种模型的对比神经网络的初始化主要是看权重的不同初始化方法的影响导包import numpy as npimport matplotlib.pyplot as pltimport sklearnimport s原创 2021-10-15 11:37:29 · 1230 阅读 · 4 评论 -
吴恩达深度学习L1W3——实现具有单个隐藏层的分类神经网络
文章目录一些笔记写作业获取数据测试逻辑回归能否实现该分类使用的神经网络模型定义神经网络结构初始化模型参数循环梯度下降将上述函数集成到model中通过上述模型来预测结果调整隐藏层的大小看结果aaa实现具有单个隐藏层的2分类神经网络使用具有非线性激活函数的神经元,例如tanh一些笔记写作业导入常用的包和老师提供的工具集import numpy as npimport sklearnimport matplotlib.pyplot as pltfrom planar_utils import原创 2021-10-10 21:43:39 · 758 阅读 · 0 评论 -
吴恩达深度学习L1W2——实现简单逻辑回归
文章目录一些笔记写作业导入数据取出训练集、测试集处理数据的维度标准化数据sigmoid 函数初始化参数w、b前向传播、代价函数、梯度下降优化预测函数模型整合使用模型绘制代价曲线单个样本测试不同alpha的比较预测新图根据笔记中的公式进行构造函数,之后使用模型进行预测一些笔记写作业导入数据import h5pyimport numpy as np# 训练集、测试集train_data = h5py.File('./train_catvnoncat.h5', "r")test_data原创 2021-10-09 11:56:30 · 742 阅读 · 1 评论 -
吴恩达机器学习ex2
文章目录逻辑回归-线性可分基础知识实验要求数据可视化构造数据集构造损失函数梯度下降函数准确率绘制决策边界逻辑回归-线性不可分知识点案例介绍数据可视化特征映射构造数据集正则化损失函数梯度下降函数准确率数据可视化逻辑回归-线性可分基础知识线性可分指的是多变量的情况下,可以用直线将两种类别进行划分这样我们可以对该模型的函数做出如下假设,由于该分类需要将结果分为0和1,如果还是与上次实验一样使用h=theta@X的话,结果的取值会有不落在0-1之中的。所以添加了一个激活函数sigmoid函数,将theta原创 2021-09-24 10:40:06 · 678 阅读 · 0 评论 -
吴恩达机器学习ex1
吴恩达机器学习ex11 单变量线性回归1.1 数据准备1.2损失函数的定义1.3 梯度下降函数1.4 可视化损失函数1.5 拟合函数可视化2 多变量线性回归2.1 读取文件2.2 特征归一化2.3 构造数据集2.4 损失函数的定义2.5 梯度下降函数2.6 不同alpha下的效果3 正规方程#导入常用的库import numpy as npimport pandas as pdimport matplotlib.pyplot as plt1 单变量线性回归整个1的部分需要根据城市人口数量,预测原创 2021-09-23 10:48:09 · 555 阅读 · 0 评论