
机器学习
学习笔记
立flag的咸鱼
这个作者很懒,什么都没留下…
展开
-
神经网络基础--1.9 Python中的广播
下方矩阵是100克不同食物的卡路里来源,例如100克苹果的热量有56卡来自碳水化合物,蛋白质和脂肪分别为1.2和1.8。需求:计算四种食物中,来自碳水化合物、蛋白质和脂肪的卡路里的百分比。例如100克苹果总共有56+1.2+1.8=59卡,其中碳水化合物占比约为94.9%。目标:不用显式for循环实现。import numpy as np#将数据填入3*4的矩阵AA=np.array...原创 2020-03-05 16:21:54 · 226 阅读 · 0 评论 -
神经网络基础--1.8 向量化Logistic回归的梯度输出及小结
在1.7 向量化在Logistic回归梯度下降法中的应用(正向传播)中记录了如何通过向量化同时计算整个训练集m个样本的预测值a,本节中描述如何用向量化计算m个训练数据的梯度原本计算梯度:dz1=a1−y1,dz2=a2−y2....dz^1=a^1-y^1,dz^2=a^2-y^2....dz1=a1−y1,dz2=a2−y2....现定义一个1×m的矩阵:dZ=dz1,dz2....d...原创 2020-03-05 10:28:41 · 195 阅读 · 0 评论 -
神经网络基础--1.7 向量化Logistic回归(正向传播)
计算logistic回归导数:在程序中有两个for循环简化成一个for循环想要去掉下面的那个循环,不显式地把dw1、dw2等初始化为0,把dw变成一个nx*1维的向量用dw=np.zeros((nx,1))dw=np.zeros((n_x,1))dw=np.zeros((nx,1))代替dw1和dw2等于0的初始化用dw+=xidzidw+=x^i dz^idw+=xidzi代...原创 2020-03-04 17:17:12 · 184 阅读 · 0 评论 -
神经网络基础--1.6 向量化
使代码更高效什么是向量化?在Logistic回归中,需要计算原创 2020-03-04 09:48:14 · 306 阅读 · 0 评论 -
神经网络基础--1.5 logistic回归中的梯度下降法
计算图原创 2020-03-03 17:39:02 · 377 阅读 · 0 评论 -
神经网络基础--1.1二分类
1.2 什么是神经网络?1.3 用神经网络进行监督学习原创 2020-02-21 11:50:30 · 442 阅读 · 0 评论 -
神经网络基础--1.2 logistic回归
问题描述:判断一张图片是不是猫图片的特征向量x作为输入值,需要一个算法,输出预测值y帽y帽为一个概率,当x满足条件时,y就是1logistic回归:已知Logistic回归的参数是w,也是一个nx维向量,b为一个实数sigmoid函数公式sigmoid函数图形实现logistic回归时,选择合适的参数w和b,使y帽可以较好的预测...原创 2020-02-21 13:45:13 · 352 阅读 · 0 评论 -
神经网络基础--1.3 logistic回归损失函数
损失函数(误差函数)用来衡量预测输出值y帽和实际值y有多接近如果定义误差为在优化时,会得到非凸的函数,产生很多局部最优解,可能会找不到全局最优值...原创 2020-02-23 15:09:55 · 174 阅读 · 0 评论 -
神经网络基础--1.4 梯度下降法
梯度下降法用来训练或学习训练集上的参数w和b为了便于理解,以一元函数为例要找到输入值w,使输出的函数值C(w)最小。先随便挑一个输入值,然后考虑向左还是向右走,函数值才会变小。如果可以确定函数在这里的斜率,斜率为正,就向左走,斜率为负,就向右走。如果每一步的大小和斜率成比例,那么在最小值附近斜率会越来越平缓,每一步会越来越小,这样可以防止调过头。在每一个点上都这样重复,计算新...原创 2020-02-23 20:03:32 · 460 阅读 · 0 评论