- 博客(102)
- 收藏
- 关注
原创 深度学习|表示学习|归一化和正则化带给我们的启示|27
保持学习节奏稳定,平衡发展不同科目,减少负担,提高吸收效率。适当简化学习内容,抓住重点,避免“过拟合”无效努力,学会休息
2025-02-13 01:46:50
265
原创 深度学习|表示学习|Instance Normalization 全面总结|26
它的核心思想是对每个样本的每个通道单独计算均值和方差,然后进行归一化。
2025-02-10 23:39:25
1020
原创 深度学习|表示学习|CNN中的Layer Normalization | 25
在 CNN 里,Layer Normalization 主要作用在通道(C 维度)上
2025-02-10 22:38:13
619
原创 深度学习|表示学习|Layer Normalization 全面总结|24
Layer Normalization(层归一化)是一种用于深度学习的归一化方法,它的核心思想是。,然后进行归一化,使得不同神经元的输出分布更稳定,从而加速训练,提高泛化能力。。
2025-02-10 22:29:43
761
原创 深度学习|表示学习|Mini-Batch Normalization 具体计算举例|23
Batch Normalization(BN)是一种在 mini-batch 级别计算均值和方差的归一化方法
2025-02-10 01:30:49
875
原创 深度学习|表示学习|Batch Normalization 详解:数学、代码与经验总结|22
在深度学习模型中,Batch Normalization(简称 BN)是一种常用的技术,能有效加速训练并提高模型的稳定性。BN 通过对 mini-batch 数据进行归一化,使每层的输入数据分布保持稳定,从而缓解梯度消失/爆炸问题,同时减少对权重初始化的敏感性。
2025-02-10 00:52:20
863
原创 深度学习|表示学习|训练优化方法|Nesterov动量一定比基础的Momentum更好吗?|22
Nesterov 动量(Nesterov Accelerated Gradient, NAG)并不一定总比 基础动量(Momentum) 更好,它们各有优劣,适用于不同的场景。
2025-02-07 01:24:59
506
原创 深度学习 | 表示学习 | 训练优化方法|first-order method(一级方法) 和 second-order method(二级方法)有什么区别|21
在优化问题中,first-order method(一级方法) 和 second-order method(二级方法) 的主要区别在于它们利用的导数信息的阶数
2025-02-07 00:39:54
825
原创 深度学习 | 表示学习 | 卷积神经网络 | Batch Normalization 在 CNN 中的示例 | 20
举例说明 batch normalization 在CNN中如何计算的
2025-02-05 04:06:13
785
原创 深度学习|表示学习|卷积神经网络|Batch Normalization在干什么?|19
Batch Normalization(BN)是深度学习中的一个重要归一化技术,它的目标是减少 Internal Covariate Shift,提高训练速度和稳定性。
2025-02-05 03:52:35
1223
原创 深度学习|表示学习|卷积神经网络|DeconvNet是什么?|18
DeconvNet 的核心思想是:逐层逆向传播 CNN 计算的特征,重建输入图像的显著区域。
2025-02-05 03:07:07
864
原创 深度学习|表示学习|卷积神经网络|NIN 相比普通 CNN|17
用小型的多层感知机(MLP,Multi-Layer Perceptron)替代传统 CNN 中的卷积层
2025-02-05 02:47:22
865
原创 Python | Pytorch | 什么是 Inplace Operation(就地操作)?
Inplace 操作 是直接修改 Tensor 本身的操作
2025-01-30 09:14:52
899
原创 Python | Pytorch | Tensor知识点总结
Tensor 是我们接触Pytorch了解到的第一个概念,这里是一个关于主题的知识点总结,涵盖了 Tensor 的基本概念、创建方式、运算操作、梯度计算和 GPU 加速等内容。
2025-01-30 09:04:19
896
原创 深度学习|表示学习|卷积神经网络|详细推导每一层的维度变化|14
一个经典的卷积神经网络(CNN)架构,呈现的是输入图像通过多个卷积层、池化层以及全连接层,最终输出分类结果的过程。,我们可以通过卷积核大小、步长、填充和池化操作的参数,来推导每一层的维度变化。
2025-01-27 23:21:02
1107
原创 深度学习|表示学习|卷积神经网络|Pooling(池化是在做什么)|13
Pooling 不会引入新的特征,而是对特征图进行压缩,以更高效地表示信息。
2025-01-25 04:52:54
1019
原创 深度学习|表示学习|卷积神经网络|Padding(填充)的用处是什么?|12
Padding(填充)是卷积操作中的一个重要概念,它的主要作用是。Padding 的目的是解决卷积过程中。的问题,同时影响输出特征图的大小。
2025-01-25 02:50:51
1042
原创 深度学习|表示学习|卷积神经网络|非线形如何帮助卷积操作|11
非线性指的是在卷积操作后,应用一个非线性激活函数(如 Sigmoid、ReLU、Tanh 等)来对卷积的结果进行变换。
2025-01-25 02:28:52
1095
原创 深度学习|表示学习|卷积神经网络|由参数共享引出的特征图|08
Feature Map 是卷积操作的输出,表示输入数据中某类特征(如边缘或纹理)的空间分布。
2025-01-23 12:03:35
936
原创 深度学习|表示学习|卷积神经网络|参数共享是什么?|07
Parameter Sharing(参数共享)是卷积神经网络(CNN)的一个重要特性,帮助它高效地处理数据。参数共享的本质就是参数“本来也没有变过”。换句话说,在卷积层中,卷积核的参数(权重和偏置)是固定不变的,在整个输入上重复使用。
2025-01-23 11:45:48
1504
原创 深度学习|表示学习|卷积神经网络|局部链接是什么?|06
局部连接(Local Connectivity),是卷积神经网络(CNN)中的一个关键特性。每个输出神经元只与输入中的一个局部区域相连,而不是与整个输入连接。
2025-01-23 11:18:16
1118
原创 深度学习|表示学习|卷积神经网络|通道 channel 是什么?|05
在卷积神经网络(CNN)中,是指输入或输出数据的,通常用来表示输入或输出的特征类型。
2025-01-23 11:00:27
957
原创 IsaacLab | Workflow 中 rsl_rl 的 play.py 脚本精读
play.py 精读赏析功能::用于解析命令行参数,允许用户在运行脚本时指定一些选项。:用于启动和管理 Isaac Sim 应用程序。:本地导入模块,可能包含特定的命令行参数设置(如强化学习相关的参数)。3. 命令行参数解析功能:这里设置了一些命令行参数,用户可以在运行时指定这些参数,如是否使用 CPU、模拟环境的数量、任务名称等。通过 和 添加了更多与 RSL-R
2024-08-06 23:02:34
1495
4
原创 SQL | 主键(Primary Key)和外键(Foreign Key)有什么区别| 用一个简单例子说明
主键的目的是为表中的每一行提供一个唯一的标识符,确保数据表中的每一条记录都可以被精确访问。外键的主要作用是控制不同表中数据之间的关系,防止数据库中出现不一致的数据,例如,防止引用不存在的数据。
2024-06-29 08:18:43
1549
原创 Isaac Lab | Orbit改名了2 | 如何从Orbit迁移至Isaac Lab | Isaac Lab与Orbit相比有什么改变?
文件名变了
2024-06-18 02:03:12
1171
原创 Linux | grep命令和 find命令有什么区别
他们俩都是linux系统中具有查找功能的命令,但是grep和find用于不同的目的。grep 用于在文件中查找文本模式,而 find 用于在文件系统中查找文件和目录。
2024-06-17 02:30:00
908
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人