1 神经网络基础
1.1 二分分类
logistic回归是一个用于二分分类的算法
在二分分类问题中,目标是训练出一个分类器

识别图片中的猫,输出1表示是猫,输出0表示不是猫。
计算机保存一张图片,要保存三个独立矩阵,分别对应图中的红绿蓝三个颜色通道。
假设图片是64x64像素的,就有3个64x64的矩阵,分别对应图中红绿蓝三个像素的亮度。
要将这些像素亮度值放入一个特征向量中,就要把这些像素值提取出来,放入一个特征向量x,如上图表示的那样。
将所有像素放在一列中,所以他的维度就是64x64x3。用n或者 n x n_x nx表示维度。

x是 n x n_x nx维的特征向量
定义一个矩阵X,它由训练集中的 x ( 1 ) , x ( 2 ) . . . x^{(1)},x^{(2)}... x(1),x(2)...组成,这个矩阵有m列,矩阵的高度为 n x n_x nx
有时候每个输入都是横向排列,而不是列向排列,但是在构建神经网络时,会用左边这种约定方式,会让构建过程简单得多
矩阵X是一个 n x ∗ m n_x*m nx∗m矩阵
将输出y也放到一个矩阵中,形成一个1维m列的矩阵
用m表示样本数: m = m t r a i n m=m_{train} m=mtrain,用 m t e s t m_{test} mtest表示样本集: m t e s t m_{test} mtest=#test example
一般在python中,X.shape=( n x n_x nx,m),Y.shape=(1,m)
1.2 logistic回归(Logistic Regression)
logistic回归是一种学习算法,用于监督学习中输出标签y为0和1时,是一种二元分类问题

给一个输入特征X,他可能是一个猫图,用来识别他是不是一个猫。你需要一个算法,可以给出一个预测值,用 y ^ \hat{y} y^表示。正式的说我们希望y帽表示一个概率,当输入特征X满足条件时,y就是1

已知特征向量X是一个 n x n_x nx维的。我们有参数w也是 n x n_x n

本文是吴恩达的神经网络和深度学习课程的基础部分笔记,涵盖了二分分类、logistic回归及其损失函数、梯度下降法在logistic回归中的应用,以及向量化logistic回归的介绍。内容包括神经网络的基础概念、损失函数的定义和梯度下降法的原理,旨在帮助读者理解二元分类问题和初步搭建神经网络。
最低0.47元/天 解锁文章

646

被折叠的 条评论
为什么被折叠?



