自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 计算flops示例

2.例如已知模型为PGD,且输入的shape应为(1, 5, 3, 224, 224),则可以算出经过此模型的flops。

2025-02-11 14:16:02 327

原创 detr复现

中下载COCO 2017 train and val images with annotations,并且按照下图结构进行数据准备。数据集和环境准备好后,对main.py中的代码进行修改。创建一个predict.py文件,添加预测脚本。在源代码中readme文件中下载。在自己创建的新环境中运行以下代码。

2024-10-20 15:36:55 1310

原创 学习记录-pycharm

中下载源代码压缩包,并解压后在pycharm中打开,在右下角选择新创建的环境名xu1。1.首先在终端创建一个新环境,命名为yolo,python为3.10版本。13.点击运行mypredict.py文件,结果如下所示环境配置成功。12.点击运行mytrain.py文件,结果如下所示环境配置成功。1.在终端创建新环境为xu1,python为3.10版本。官网首页​​​​找到安装cpu版本的命令,并添加清华源。5.查看新环境下安装的库和包,检查是否安装成功。9.运行train.py文件,有30轮。

2024-09-13 16:46:38 1066

原创 学习记录-

权重衰退通过L2正则项使得模型不会过大,从而控制模型复杂度正则项权重是控制模型复杂度的超参数实现这一惩罚最方便的方法是对所有项求平方后并将它们求和线性网络和平方损失没有变化, 所以我们通过d2l.linreg和导入它们。唯一的变化是损失现在包括了惩罚项# 增加了L2范数惩罚项,# 广播机制使l2_penalty(w)成为一个长度为batch_size的向量print('w的L2范数是:', torch.norm(w).item())

2024-09-03 10:06:50 651

原创 学习记录-

训练数据集:训练模型参数验证数据集:选择模型超参数非大数据集上通常使用K-折交叉验证模型容量需要匹配数据复杂度,否则可能导致过拟合和欠拟合统计机器学习提供数学工具来衡量模型复杂度实际中一般靠观察训练误差和验证误差。

2024-08-31 16:07:09 704

原创 学习记录-

多层感知机在输出层和输入层之间增加一个或多个全连接隐藏层,并通过激活函数转换隐藏层的输出常用的激活函数包括ReLU函数、sigmoid函数和tanh函数。

2024-08-29 18:05:40 822

原创 学习记录-

给定一个矩阵X,我们可以对所有元素求和(默认情况下)。也可以只求同一个轴上的元素,即同一列(轴0)或同一行(轴1)。如果X是一个形状为(2, 3)的张量,我们对列进行求和, 则结果将是一个具有形状(3,)的向量。当调用sum运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度。这将产生一个具有形状(1, 3)的二维张量。[15.]]))对于任何随机输入,我们将每个元素变成一个非负数定义softmax操作后,我们可以实现softmax回归模型。下面的代码定义了输入如何通过网络映射到输出。

2024-08-26 15:12:13 658

原创 学习记录-

softmax回归是一个多类分类模型使用softmax操作子得到每个类的预测置信度使用交叉熵来衡量预测和标号的区别。

2024-08-25 15:27:49 1030

原创 学习记录-

接下来定义模型,将模型的输入和参数同模型的输出关联起来。要计算线性模型的输出, 我们只需计算输入特征X和模型权重w的矩阵-向量乘法后加上偏置b。"""线性回归模型""""""均方损失""""""小批量随机梯度下降"""

2024-08-22 15:08:32 347

原创 学习记录-

线性回归是对n维输入的加权,外加偏差使用平方损失来衡量预测值和真实值的差异线性回归有显示解线性回归可以看作是单层神经网络梯度下降通过不断沿着反梯度方向更新参数求解小批量随机梯度下降是深度学习默认的求解算法两个重要的超参数是批量大小和学习率。

2024-08-22 13:02:34 833

原创 学习记录-

(1)标量链式法则(2)扩展到向量例子1:例子2:将代码分解成操作子将计算表示成一个无环图显示构造Tensorflow/Theano/MXNet隐式构造PyTorch/MXNet链式法则:∂y/ ∂x = (∂y /∂un) *(∂un /∂un−1) … (∂u2/ ∂u1)*( ∂u1/ ∂x)(1)正向累积(2)反向累积反向累积总结:构造计算图前向:执行图,存储中间结果反向:从相反方向执行图去除不需要的枝(1)如果对函数y=2x⊤x关于列向量x求导。 首先,我们创建变量并为其分配一个初始值计算y

2024-08-21 17:51:35 505

原创 学习记录-

1.创建数组创建数组需要:①形状②每个元素的数据类型③每个元素的值2.访问元素①一个元素:[1,2]②一行:[1,:]③一列:[:,1]④子区域:[1:3,1:] #第1到2行,第1到最后1列⑤子区域:[::3,::2] #从第0行开始,每3行一跳,从第0列开始,每2列一跳。

2024-08-20 09:45:57 472

原创 学习记录-

1.2.交换变量x,y的值3.原始字符串,忽略转义字符在引号前加r,或者使用“\”对转义字符进行转义。4.字符串加法和乘法。

2024-08-13 16:21:01 652

原创 学习记录-

2024-08-07 20:11:38 373

原创 学习记录-

2024-08-07 20:04:44 302

原创 学习记录6

2024-08-01 13:54:37 389

原创 学习记录5

2024-07-20 17:38:18 157

原创 学习记录4

2024-07-19 17:26:54 163

原创 学习记录3

2024-07-18 17:43:15 148

原创 学习记录2

2024-07-17 18:46:39 166

原创 学习记录1

2024-07-16 19:54:30 154

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除