深度学习-分类任务

本文介绍了分类任务的基本原理,包括使用深度学习方法(如卷积神经网络)处理图片输入,减少过拟合,卷积核参数计算,优化策略(如padding和pooling),以及如何将卷积结果转化为类别概率,涉及经典模型如AlexNet和VGG的结构及dropout和归一化技术。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

分类任务的原理

定义几个类别

将输出与类别对比,判断是哪一类

分类任务的输入和输出

可以看出,分类任务的深度学习方法与线性回归的方法基本相同,都是做全连接,分类任务的特点是如何将图片输入。

一种图片处理方法:直接将图片拉直

这种方法会造成参数量过多,过拟合严重。因此不用这种方法。

第二种方法:卷积神经网络

卷积、卷积核、特征图

卷积核的参数量(不考虑偏置值)

例如卷积核数目为64,大小为3×3,深度为5层,卷积核的参数量为64*3*3*5.

卷积优化方式

padding(保持卷积后的特征图与原始图片的大小不变)

Zeropadding

深层卷积

224-224-3变成224-224-5

如何将特征图变小

  • 特征图如何变小

    • 降低采样

      • 方法一:扩大步长

        • 卷积步长:之前每次移一个步长,现在移动两步

        • 卷积尺寸计算公式

      • 方法二:依靠pooling池化

        • 分区域,每个区域仅用一个数字表示区域

        • 两种方法

          • 最大池化,用max表示这个池子

          • 平均池化,用平均值表示这个池子

        • 适应化pooling

 卷积的结果如何表示为一个类别呢

将图片卷积结果展开为一维,然后进行全连接。

分类的输出

分类的输出结果要经过softmax函数,转化为概率的形式。

分类任务的loss如何计算

交叉熵损失,这里分为二分类与多分类。

一个基本分类任务神经网络层次

卷积与池化层

全连接层

分类层

一些经典的神经网络 

AlexNet

drop out :防止过度拟合

归一化处理:在回归任务中有提及

结构

 VGG

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值