自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 第三章 Sage-Husa自适应卡尔曼滤波

Sage-Husa自适应卡尔曼滤波

2024-11-21 11:56:28 740 1

原创 第二章 线性卡尔曼滤波

优化算法中的线性卡尔曼滤波算法

2024-11-11 14:39:52 445

原创 第一章 贝叶斯滤波

贝叶斯滤波算法

2024-11-07 17:38:57 323

原创 第九章 目标检测中的Yolo v1

目标检测YOLO v1的详细解读

2024-10-25 19:09:26 840

原创 第七章 Transformer概述

Transformer概要

2024-09-27 17:20:33 818

原创 第八章 Transformer代码详解

解析Pytorch Transformer代码实现

2024-09-27 17:19:24 2821

原创 第六章 深度学习中的注意力机制

深入理解注意力机制

2024-09-18 21:27:38 1932

原创 第五章 MobileNet

MobileNet系列

2024-09-06 11:39:39 1060

原创 第四章 ResNet

ResNet

2024-09-04 09:54:38 877

原创 梯度消失与梯度爆炸

梯度消失问题( vanishing gradient)是在早期的BP网络中比较常见的问题。这种问题的发生会让训练很难进行下去,看到的现象就是训练不再收敛——Loss过早地不再下降,而精确度也过早地不再提高。梯度爆炸则是指梯度在反向传播过程中,由于链式求导法则的累乘效应,某些参数的梯度会变得非常大,导致参数更新过于剧烈,进而使得损失函数出现震荡现象。梯度消失指的是在反向传播过程中,由于链式求导法则的累积效应,随着网络层数的增加,梯度逐渐变小,导致参数更新缓慢甚至停滞,网络无法收敛。

2024-08-31 17:06:08 519

原创 第三章 卷积神经网络模型的发展

深度学习技术快速发展的过程中的一些经典模型

2024-08-28 11:38:49 1018

原创 一、基本概念:并发、进程与线程

基本概念:并发、进程与线程

2024-08-27 09:23:33 948

原创 第二章 深度学习基础——层和函数

全连接、卷积、池化是深度学习网络模型的基本单元

2024-08-25 21:20:05 2104

原创 第一章 机器学习技术分类

机器学习技术分类

2024-08-23 15:42:48 832 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除