自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

公众号:快乐变态屋 漂亮大男孩的罗德岛

世间的功德打比方说,拥有一碗水时解他人之渴与拥有一池水却独泳其中,哪个大呢?富而不知「种福」是真的贫,贫而「种福」才是富贵吧!

  • 博客(102)
  • 收藏
  • 关注

原创 深度学习|表示学习|多头注意力在计算时常见的张量维度变换总结|28

多头注意力机制维度变化总结

2025-03-25 23:46:02 602

原创 深度学习|表示学习|归一化和正则化带给我们的启示|27

保持学习节奏稳定,平衡发展不同科目,减少负担,提高吸收效率。适当简化学习内容,抓住重点,避免“过拟合”无效努力,学会休息

2025-02-13 01:46:50 265

原创 深度学习|表示学习|Instance Normalization 全面总结|26

它的核心思想是对每个样本的每个通道单独计算均值和方差,然后进行归一化。

2025-02-10 23:39:25 1020

原创 深度学习|表示学习|CNN中的Layer Normalization | 25

在 CNN 里,Layer Normalization 主要作用在通道(C 维度)上

2025-02-10 22:38:13 619

原创 深度学习|表示学习|Layer Normalization 全面总结|24

Layer Normalization(层归一化)是一种用于深度学习的归一化方法,它的核心思想是。,然后进行归一化,使得不同神经元的输出分布更稳定,从而加速训练,提高泛化能力。。

2025-02-10 22:29:43 761

原创 深度学习|表示学习|Mini-Batch Normalization 具体计算举例|23

Batch Normalization(BN)是一种在 mini-batch 级别计算均值和方差的归一化方法

2025-02-10 01:30:49 875

原创 深度学习|表示学习|Batch Normalization 详解:数学、代码与经验总结|22

在深度学习模型中,Batch Normalization(简称 BN)是一种常用的技术,能有效加速训练并提高模型的稳定性。BN 通过对 mini-batch 数据进行归一化,使每层的输入数据分布保持稳定,从而缓解梯度消失/爆炸问题,同时减少对权重初始化的敏感性。

2025-02-10 00:52:20 863

原创 深度学习|表示学习|训练优化方法|Nesterov动量一定比基础的Momentum更好吗?|22

Nesterov 动量(Nesterov Accelerated Gradient, NAG)并不一定总比 基础动量(Momentum) 更好,它们各有优劣,适用于不同的场景。

2025-02-07 01:24:59 506

原创 深度学习 | 表示学习 | 训练优化方法|first-order method(一级方法) 和 second-order method(二级方法)有什么区别|21

在优化问题中,first-order method(一级方法) 和 second-order method(二级方法) 的主要区别在于它们利用的导数信息的阶数

2025-02-07 00:39:54 825

原创 深度学习 | 表示学习 | 卷积神经网络 | Batch Normalization 在 CNN 中的示例 | 20

举例说明 batch normalization 在CNN中如何计算的

2025-02-05 04:06:13 785

原创 深度学习|表示学习|卷积神经网络|Batch Normalization在干什么?|19

Batch Normalization(BN)是深度学习中的一个重要归一化技术,它的目标是减少 Internal Covariate Shift,提高训练速度和稳定性。

2025-02-05 03:52:35 1223

原创 深度学习|表示学习|卷积神经网络|DeconvNet是什么?|18

DeconvNet 的核心思想是:逐层逆向传播 CNN 计算的特征,重建输入图像的显著区域。

2025-02-05 03:07:07 864

原创 深度学习|表示学习|卷积神经网络|NIN 相比普通 CNN|17

用小型的多层感知机(MLP,Multi-Layer Perceptron)替代传统 CNN 中的卷积层

2025-02-05 02:47:22 865

原创 Python | Pytorch | 什么是 Inplace Operation(就地操作)?

Inplace 操作 是直接修改 Tensor 本身的操作

2025-01-30 09:14:52 899

原创 Python | Pytorch | Tensor知识点总结

Tensor 是我们接触Pytorch了解到的第一个概念,这里是一个关于主题的知识点总结,涵盖了 Tensor 的基本概念、创建方式、运算操作、梯度计算和 GPU 加速等内容。

2025-01-30 09:04:19 896

原创 深度学习|表示学习|卷积神经网络|输出维度公式如何理解?|16

怎么理解输出维度的计算,+1是哪来的

2025-01-27 23:47:03 1149

原创 深度学习|表示学习|卷积神经网络|输出维度公式|15

在卷积和池化操作中计算输出维度的公式。

2025-01-27 23:46:07 1140

原创 深度学习|表示学习|卷积神经网络|详细推导每一层的维度变化|14

一个经典的卷积神经网络(CNN)架构,呈现的是输入图像通过多个卷积层、池化层以及全连接层,最终输出分类结果的过程。,我们可以通过卷积核大小、步长、填充和池化操作的参数,来推导每一层的维度变化。

2025-01-27 23:21:02 1107

原创 深度学习|表示学习|卷积神经网络|Pooling(池化是在做什么)|13

Pooling 不会引入新的特征,而是对特征图进行压缩,以更高效地表示信息。

2025-01-25 04:52:54 1019

原创 深度学习|表示学习|卷积神经网络|Padding(填充)的用处是什么?|12

Padding(填充)是卷积操作中的一个重要概念,它的主要作用是。Padding 的目的是解决卷积过程中。的问题,同时影响输出特征图的大小。

2025-01-25 02:50:51 1042

原创 深度学习|表示学习|卷积神经网络|非线形如何帮助卷积操作|11

非线性指的是在卷积操作后,应用一个非线性激活函数(如 Sigmoid、ReLU、Tanh 等)来对卷积的结果进行变换。

2025-01-25 02:28:52 1095

原创 深度学习|表示学习|卷积神经网络|离散卷积的操作详细|10

离散卷积(Discrete Convolution)操作演示

2025-01-25 02:09:08 812

原创 深度学习 | 表示学习 | 卷积神经网络|翻转卷积核是干啥呢|09

实现中不常见哈

2025-01-25 01:40:32 1124

原创 深度学习|表示学习|卷积神经网络|由参数共享引出的特征图|08

Feature Map 是卷积操作的输出,表示输入数据中某类特征(如边缘或纹理)的空间分布。

2025-01-23 12:03:35 936

原创 深度学习|表示学习|卷积神经网络|参数共享是什么?|07

Parameter Sharing(参数共享)是卷积神经网络(CNN)的一个重要特性,帮助它高效地处理数据。参数共享的本质就是参数“本来也没有变过”。换句话说,在卷积层中,卷积核的参数(权重和偏置)是固定不变的,在整个输入上重复使用。

2025-01-23 11:45:48 1504

原创 深度学习|表示学习|卷积神经网络|局部链接是什么?|06

局部连接(Local Connectivity),是卷积神经网络(CNN)中的一个关键特性。每个输出神经元只与输入中的一个局部区域相连,而不是与整个输入连接。

2025-01-23 11:18:16 1118

原创 深度学习|表示学习|卷积神经网络|通道 channel 是什么?|05

在卷积神经网络(CNN)中,是指输入或输出数据的,通常用来表示输入或输出的特征类型。

2025-01-23 11:00:27 957

原创 深度学习|表示学习|作为损失函数的交叉熵|04

交叉熵衡量两个概率分布之间的差异,是分类任务中常用的损失函数。

2025-01-14 02:59:01 968

原创 深度学习|表示学习|为什么要有激活函数?|03

激活函数赋予神经网络非线性能力,从而使其能够处理复杂的任务。

2025-01-10 06:32:51 911

原创 深度学习|表示学习|一个神经元可以干什么|02

一个神经元也可以干很多事哦

2025-01-10 06:16:32 887

原创 深度学习|表示学习|一个神经元里都有什么|01

一个神经元包括输入、权重、偏置、加权求和器、激活函数和输出

2025-01-10 06:02:47 1015

原创 IsaacLab | Workflow 中 rsl_rl 的 play.py 脚本精读

play.py 精读赏析功能::用于解析命令行参数,允许用户在运行脚本时指定一些选项。:用于启动和管理 Isaac Sim 应用程序。:本地导入模块,可能包含特定的命令行参数设置(如强化学习相关的参数)。3. 命令行参数解析功能:这里设置了一些命令行参数,用户可以在运行时指定这些参数,如是否使用 CPU、模拟环境的数量、任务名称等。通过 和 添加了更多与 RSL-R

2024-08-06 23:02:34 1495 4

原创 IsaacLab | 如何在Manipulation任务中添加新的目标(target)

向场景中添加新的目标标记

2024-07-29 21:39:31 813

原创 SQL | join 的目的是什么?

JOIN 在 SQL 中的主要目的是连接两个表,以便能够合并相关数据,进行更有效的数据分析和报告。

2024-06-29 08:23:29 506

原创 SQL | 主键(Primary Key)和外键(Foreign Key)有什么区别| 用一个简单例子说明

主键的目的是为表中的每一行提供一个唯一的标识符,确保数据表中的每一条记录都可以被精确访问。外键的主要作用是控制不同表中数据之间的关系,防止数据库中出现不一致的数据,例如,防止引用不存在的数据。

2024-06-29 08:18:43 1549

原创 Isaac Lab | 用rsl_rl训练时会遇到的编码问题|UnicodeEncodeError

一个rsl_rl解决异常的总结

2024-06-19 03:51:04 583 1

原创 Isaac Lab | Orbit改名了2 | 如何从Orbit迁移至Isaac Lab | Isaac Lab与Orbit相比有什么改变?

文件名变了

2024-06-18 02:03:12 1171

原创 Linux | grep命令和 find命令有什么区别

他们俩都是linux系统中具有查找功能的命令,但是grep和find用于不同的目的。grep 用于在文件中查找文本模式,而 find 用于在文件系统中查找文件和目录。

2024-06-17 02:30:00 908

原创 二维空间中的点绕原点的旋转矩阵是怎么来的?(内含视频讲解)

二维空间中围绕原点的旋转矩阵是怎么来的。

2024-06-07 01:24:37 581 1

原创 Linux | 如何在终端中快速查看电脑配置信息

这些命令可以帮助我们获取CPU、内存、硬盘以及系统版本等详细信息。

2024-06-06 22:06:36 2046

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除