吴恩达——神经网络和深度学习——笔记

本文是吴恩达的神经网络和深度学习课程的基础部分笔记,涵盖了二分分类、logistic回归及其损失函数、梯度下降法在logistic回归中的应用,以及向量化logistic回归的介绍。内容包括神经网络的基础概念、损失函数的定义和梯度下降法的原理,旨在帮助读者理解二元分类问题和初步搭建神经网络。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 神经网络基础

1.1 二分分类

logistic回归是一个用于二分分类的算法

在二分分类问题中,目标是训练出一个分类器


在这里插入图片描述
识别图片中的猫,输出1表示是猫,输出0表示不是猫。

计算机保存一张图片,要保存三个独立矩阵,分别对应图中的红绿蓝三个颜色通道。

假设图片是64x64像素的,就有3个64x64的矩阵,分别对应图中红绿蓝三个像素的亮度。

要将这些像素亮度值放入一个特征向量中,就要把这些像素值提取出来,放入一个特征向量x,如上图表示的那样。

将所有像素放在一列中,所以他的维度就是64x64x3。用n或者nxn_xnx表示维度。


在这里插入图片描述
x是nxn_xnx维的特征向量

定义一个矩阵X,它由训练集中的x(1),x(2)...x^{(1)},x^{(2)}...x(1),x(2)...组成,这个矩阵有m列,矩阵的高度为nxn_xnx

有时候每个输入都是横向排列,而不是列向排列,但是在构建神经网络时,会用左边这种约定方式,会让构建过程简单得多

矩阵X是一个nx∗mn_x*mnxm矩阵

将输出y也放到一个矩阵中,形成一个1维m列的矩阵

用m表示样本数:m=mtrainm=m_{train}m=mtrain,用mtestm_{test}mtest表示样本集:mtestm_{test}mtest=#test example

一般在python中,X.shape=(nxn_xnx,m),Y.shape=(1,m)

1.2 logistic回归(Logistic Regression)

logistic回归是一种学习算法,用于监督学习中输出标签y为0和1时,是一种二元分类问题


在这里插入图片描述
给一个输入特征X,他可能是一个猫图,用来识别他是不是一个猫。你需要一个算法,可以给出一个预测值,用y^\hat{y}y^表示。正式的说我们希望y帽表示一个概率,当输入特征X满足条件时,y就是1

在这里插入图片描述
已知特征向量X是一个nxn_xnx维的。我们有参数w也是nxn_xn

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值