2.1 神经网络基础(一)

二分分类

计算机要保存一张图片,实际需要保存三个矩阵。分别对应的是红绿蓝三个颜色通道。

这里写图片描述

在二分分类问题中,目标是训练出一个分类器。它以图片中的特征向量x作为输入,预测输出结果标签y是1(是一个猫)还是0(不是一个猫)

这里写图片描述

这里写图片描述

最后,为了方便表示,我们将x和y都写成矩阵形式,在python中

x.shape()

这样的命令就是用来看矩阵的行数和列数。

这里写图片描述

logistic回归

这是一个学习算法,在监督学习中处理二分问题。

如图所示

这里写图片描述

对于一个Logistic回归而言,通常学习的就是一个

$$ y = w^Tx+b $$

的过程,实际上,对于一维而言。我们可以理解成是y=ax+b的过程。然而这个数算出来可能很大,也可能很小。而我们希望算出来的是一个介于0到1之间的概率,因此我们要用sigma函数处理一下$\sigma$

logistic回归损失函数

为了训练logistic函数的w和b需要定义一个成本函数。下面讲解一下利用logistic来训练成本函数。

这里写图片描述

最后,Loss function是在单个训练样本中定义的,它衡量了在单个训练样本上的表现。下面定义的成本函数(Cost function),是在总体样本中的表现。

梯度下降法

这里介绍一下用梯度下降法来训练w和b

成本函数衡量了w和b在训练集上的效果,要学习得到合适的w和b,自然的就会想到成本函数J尽量小,由此来确定w和b。

这里写图片描述

我们使用梯度下降的方法,来期望得到全局最优解。这张三维图可以直观的帮助我们理解梯度下降法,我们假设w和b都是一维的。这里的J(w,b)实际上表示的就是这个像碗一样图形的高度。我们用梯度下降法来找到这个碗底,实际上就是找到这个全局最优解。

我们进一步直观的来理解梯度下降法

这里写图片描述

如图所示,我们忽略了b,只是从J和w的角度来考虑,实际上梯度下降的过程就是不断迭代

$$ w=w-\alpha\frac{dJ(w)}{dw} $$

b也是同样的道理,如果我们从三个变量角度出发,所不同的是求的是偏导数而不是导数而已。

**卷积神经网络理论基础** 2.1 **神经网络概述** 神经网络种模拟人脑工作方式的计算模型,它由大量的节点(神经元)组成,每个节点接收输入信号并通过权重进行加权求和,然后经过激活函数转换为输出。神经网络通常包含输入层、隐藏层和输出层,用于解决各种复杂的非线性问题2.2 **卷积神经网络的基本原理** 卷积神经网络(Convolutional Neural Network, CNN)是专门设计用来处理具有网格状结构的数据,如图像和视频。其核心思想是通过卷积层捕获局部特征(例如边缘、纹理)和池化层进行特征下采样,减少了模型对输入位置的敏感度。此外,共享权重机制降低了模型的参数量,使得CNN更有效率。 2.3 **经典卷积神经网络模型介绍** - AlexNet:2012年ImageNet比赛冠军,首次展示了深度学习在大规模视觉任务上的潜力,引入了ReLU激活函数和更深的网络结构。 - VGGNet:强调网络的深度,使用密集连接的小卷积核,提高了精确度。 - GoogLeNet/Inception:引入了多尺度并行路径(inception module),提升了计算效率。 - ResNet:提出了残差块(residual connection),解决了深层网络训练时的梯度消失问题2.4 **卷积神经网络在图像识别中的应用** CNN在图像识别中的应用十分广泛,它可以自动地从原始像素数据中学习到丰富的特征表示,如物体的轮廓、纹理和形状。典型的应用有人脸识别、物体检测、图像分类(如将猫狗照片分类)、甚至风格迁移。通过不断优化和调整网络架构,CNN在诸如ImageNet这样的大型图像数据库比赛中取得了显著的成绩,奠定了其在计算机视觉领域的基石。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值