自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 神经网络与深度学习第四次课程总结

语义分割是计算机视觉领域的核心技术之一,旨在为图像中的每个像素分配语义标签(如“天空”“汽车”“行人”等)。本文基于课程内容,结合经典模型FCN(Fully Convolutional Networks)和现代方法DeepLab,系统介绍语义分割的核心思想、技术演进及实践方法。反池化(Unpooling):记录池化时最大值位置,上采样时还原(如SegNet)。条件随机场(CRF):后处理优化边界细节(如DeepLab v1/v2)。实例分割:区分同一类别的不同实例(如“猫A”和“猫B”)。

2025-05-26 22:08:33 762

原创 神经网络与深度学习第三次课程总结

使用双GPU并行训练,使用了两块GTX580显卡进行训练,两块显卡只需要在特定的层进行通信。AlexNet的网络结构共有8层,包含5卷积层+3全连接层,使用了ReLU激活函数、最大池化、Dropout和数据增强等技术。结构:16层(13卷积层+3全连接层),全部使用3×3卷积核和2×2池化,各层的超参数基本相同,整体结构规整。引入ReLU,将其用于卷积层和全连接层之后,解决梯度消失问题,其中ReLu为线性整流函数,手写数字灰度图,28×28像素,6万训练+1万测试,基准任务是图像分类。

2025-05-19 19:08:26 244

原创 神经网络与深度学习第二次课程总结

节点”用来表示施加的数学操作,但也可以表示数据输入的起点/输出的终点,或者是读取/写入持久变量的终点。网络中第l层输出:a[l] =f(z[l]),其中z[l]为该层线性输出,若选取作用函数为Sigmoid函数,则可记为::a[l]= σ(z[l])另外,权值过多易过拟合,优化过程易陷入局部极小值,可以对信息分层处理,每一层在上层提取特征的基础上获取进行再处理,得到更高级别的特征。训练数据,验证数据,测试数据通常按70%,15%,15%或60,20,20分布,数据很多时,训练和验证数据可适当减少。

2025-05-12 22:53:29 743

原创 神经网络与深度学习第一次课程总结

如果每一个神经元都连接到上一层的所有神经元(除输入层外),则成为全连接网络。网络结构: 𝐮(或𝐱 )、 𝐲是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层),前层至后层节点通过权联接。数据基础,算法引擎和计算平台奠定了人工智能崛起的三大基石,计算机视觉,机器学习,图像识别,语言识别,机器人,自然语言处理是人工智能发展的6大关键技术。多层前馈网络的反向传播 (BP)学习算法,简称BP算法,是有导师的学习,它是梯度下降法在多层前馈网中的应用。

2025-05-05 19:54:33 773

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除