- 博客(21)
- 收藏
- 关注
原创 detr复现
中下载COCO 2017 train and val images with annotations,并且按照下图结构进行数据准备。数据集和环境准备好后,对main.py中的代码进行修改。创建一个predict.py文件,添加预测脚本。在源代码中readme文件中下载。在自己创建的新环境中运行以下代码。
2024-10-20 15:36:55
1310
原创 学习记录-pycharm
中下载源代码压缩包,并解压后在pycharm中打开,在右下角选择新创建的环境名xu1。1.首先在终端创建一个新环境,命名为yolo,python为3.10版本。13.点击运行mypredict.py文件,结果如下所示环境配置成功。12.点击运行mytrain.py文件,结果如下所示环境配置成功。1.在终端创建新环境为xu1,python为3.10版本。官网首页找到安装cpu版本的命令,并添加清华源。5.查看新环境下安装的库和包,检查是否安装成功。9.运行train.py文件,有30轮。
2024-09-13 16:46:38
1066
原创 学习记录-
权重衰退通过L2正则项使得模型不会过大,从而控制模型复杂度正则项权重是控制模型复杂度的超参数实现这一惩罚最方便的方法是对所有项求平方后并将它们求和线性网络和平方损失没有变化, 所以我们通过d2l.linreg和导入它们。唯一的变化是损失现在包括了惩罚项# 增加了L2范数惩罚项,# 广播机制使l2_penalty(w)成为一个长度为batch_size的向量print('w的L2范数是:', torch.norm(w).item())
2024-09-03 10:06:50
651
原创 学习记录-
训练数据集:训练模型参数验证数据集:选择模型超参数非大数据集上通常使用K-折交叉验证模型容量需要匹配数据复杂度,否则可能导致过拟合和欠拟合统计机器学习提供数学工具来衡量模型复杂度实际中一般靠观察训练误差和验证误差。
2024-08-31 16:07:09
704
原创 学习记录-
多层感知机在输出层和输入层之间增加一个或多个全连接隐藏层,并通过激活函数转换隐藏层的输出常用的激活函数包括ReLU函数、sigmoid函数和tanh函数。
2024-08-29 18:05:40
822
原创 学习记录-
给定一个矩阵X,我们可以对所有元素求和(默认情况下)。也可以只求同一个轴上的元素,即同一列(轴0)或同一行(轴1)。如果X是一个形状为(2, 3)的张量,我们对列进行求和, 则结果将是一个具有形状(3,)的向量。当调用sum运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度。这将产生一个具有形状(1, 3)的二维张量。[15.]]))对于任何随机输入,我们将每个元素变成一个非负数定义softmax操作后,我们可以实现softmax回归模型。下面的代码定义了输入如何通过网络映射到输出。
2024-08-26 15:12:13
658
原创 学习记录-
接下来定义模型,将模型的输入和参数同模型的输出关联起来。要计算线性模型的输出, 我们只需计算输入特征X和模型权重w的矩阵-向量乘法后加上偏置b。"""线性回归模型""""""均方损失""""""小批量随机梯度下降"""
2024-08-22 15:08:32
347
原创 学习记录-
线性回归是对n维输入的加权,外加偏差使用平方损失来衡量预测值和真实值的差异线性回归有显示解线性回归可以看作是单层神经网络梯度下降通过不断沿着反梯度方向更新参数求解小批量随机梯度下降是深度学习默认的求解算法两个重要的超参数是批量大小和学习率。
2024-08-22 13:02:34
833
原创 学习记录-
(1)标量链式法则(2)扩展到向量例子1:例子2:将代码分解成操作子将计算表示成一个无环图显示构造Tensorflow/Theano/MXNet隐式构造PyTorch/MXNet链式法则:∂y/ ∂x = (∂y /∂un) *(∂un /∂un−1) … (∂u2/ ∂u1)*( ∂u1/ ∂x)(1)正向累积(2)反向累积反向累积总结:构造计算图前向:执行图,存储中间结果反向:从相反方向执行图去除不需要的枝(1)如果对函数y=2x⊤x关于列向量x求导。 首先,我们创建变量并为其分配一个初始值计算y
2024-08-21 17:51:35
505
原创 学习记录-
1.创建数组创建数组需要:①形状②每个元素的数据类型③每个元素的值2.访问元素①一个元素:[1,2]②一行:[1,:]③一列:[:,1]④子区域:[1:3,1:] #第1到2行,第1到最后1列⑤子区域:[::3,::2] #从第0行开始,每3行一跳,从第0列开始,每2列一跳。
2024-08-20 09:45:57
472
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅