01.神经网络和深度学习
第二周 神经网络基础
先说明最简单的二分类,即可以把结果分为0和1两类,或者说是否两种的分类情况。
比如说判定图片中是否有猫,标记为有(1)或者无(0)。
特征则是图片中像素点RGB三色的深度,对应于64x64像素的图像,特征量为64x64x3= 12288。
为了操作解释方便,我们会把特征进行排列,重组成纵列。
一个特征对应一个标签,最后组成数据对(x,y)
m个数据组合后把特征和标签组合成X和Y
logistic regression,监督学习的一种,输出为0或者1.
在已知x的情况下,求y的概论,其中x为上面说明的特征,y为标签。
我们这里定义为一般公式,引入参数w和b
单纯的w*x+b类似于一元线性方程,无法得到一个[0,1]范围内的数值,还需要用到sigmoid function(这点在后面会优化,因为sigmoid中间有一段缓慢变化区,不利于函数收敛)
为了训练参数w和b,我们需要定义一个cost function来判断怎样的参数才是合适的。
cost function是在当前训练集下的,而loss(error) function是指针对某个样本的。cost function 是loss function的平均。
对loss function,我们希望