- 博客(15)
- 收藏
- 关注
原创 解决报错 ModuleNotFoundError: No module named ‘wandb.keras‘
我使用的wandb版本是0.17.8。
2024-09-03 16:51:28
546
原创 报错 AttributeError: ‘Tensor‘ object has no attribute ‘numpy‘的一种可能原因
该错误可能发生在尝试在装饰的函数内部将一个 Tensor 转换为 NumPy 数组时。但这段代码会报错:AttributeError: 'Tensor' object has no attribute 'numpy'
2024-08-12 12:18:27
1174
原创 解决报错load_model: __init__() got an unexpected keyword argument ‘name‘
不是很清楚原理,但加上就不报错了。
2024-07-16 19:22:00
411
原创 报错RuntimeError: CUDA error: out of memory的一个可能的原因
我查这个报错的时候好像没有人记录这个原因,是我自己发现的我训练模型的时候,好几次中途发现有数据不对,就ctrl+z退出了实际上ctrl+z只是起到了暂停的作用,ctrl+c才可以停止当前运行的进程进程暂停,显存仍然会被占用,且用命令 nvidia-smi 查看显存占用情况可能会显示没有被占用,让人摸不着头脑。
2023-12-15 00:37:24
284
原创 【Python】深拷贝与浅拷贝
tmp1=tmp2这样的赋值操作是引用复制(reference copy),而不是深拷贝或浅拷贝。如果tmp是可变的变量,对其中一个的更改会影响到另一个。
2023-12-07 00:15:33
131
1
原创 【2023Intel oneAPI黑客松大赛】主题一-自动驾驶车辆的对象检测
城市景观数据集:这个数据集包含高分辨率的城市场景图像,专门用于城市场景语义理解任务。该数据集包含 30 类对象(行人、汽车、公共汽车、自行车等)的 5,000 幅图像,并带有精细注释,本文使用原始图片集leftImg8bit与标记文件gtFine。SegNet(Semantic Segmentation Network)是一种用于语义分割任务的深度学习网络结构。它旨在将输入图像的每个像素分配给特定的语义类别,从而实现像素级别的图像分割。第一次接触了图像分割的任务,学习了很多关于图像分割的知识。
2023-10-25 13:54:08
254
1
原创 【深度学习】Pytorch实现VGG16
注意第一个全连接层的输入参数的大小为前一层的特征图通道数*特征图长*特征图宽,这个值会因为输入图片的大小变化而改变,可通过如下代码计算得到。运行结果如下,可见通道数为512,特征图大小为7*7。实例化模型并通过summary查看模型架构。导入所需库,定义数据。
2023-08-27 19:41:46
1023
1
原创 【深度学习】卷积神经网络
深度学习的模型总是需要大规模计算和训练来达到商业使用标准,计算量一直都是深度学习领域的痛,而巨大的计算量在很多时候都与巨量参数有关。在卷积神经网络诞生之前,人们一直使用普通全连接的DNN来训练图像数据。对于一张大小中等,尺寸为(600,400)的图像而言,若要输入全连接层的DNN,则需要将像素拉平至一维,在输入层上就需要600*400 = 24万个神经元,这就意味着我们需要24万个参数来处理这一层上的全部像素。
2023-08-24 21:09:03
284
1
原创 最优路径森林OPF
最优路径森林 OPF 算法将训练集转换成一个完全图,完全图中的每个节点都是调练集中的一个样本,图中的弧用节点间距离来表示,根据完全图来生成最优路径森林,森林中。在进行分类时,计算待分类样本到哪棵树的距离最近,则其类别就和这棵树的根节点的类别相同。OPF 分类器不依赖于任何参数,训练阶段不需要进行参数优化,因此其调练速度和分类速度都非常快。
2023-08-11 17:01:37
363
1
原创 【深度学习】在MINST-FASHIONS上实现神经网络(PyTorch)
查看数据集的形状(高度为1,省略)及种类。定义损失函数,优化算法、梯度下降流程。查看每个batch中的数据的形状。设置神经网络输入输出的个数。
2023-08-09 17:20:36
102
原创 【深度学习】移动坐标点(动量法)
有了大小和方向,接下来我们就可以开始走出我们的第一步了。来看权重的迭代公式:现在我们的偏导数部分已经计算出来了,就是我们使用backward求解出的结果。而学习率,或者步长,是我们在迭代开始之前就人为设置好的,一般是0.01-0.5之间的某个小数。因此现在我们已经可以无障碍地使用代码实现权重的迭代了走出第一步的代码。
2023-08-02 15:16:55
289
1
原创 【深度学习】反向传播
(Forward Propagation)是神经网络中的一个过程,它是神经网络从输入数据到输出结果的推导过程。在正向传播过程中,输入数据通过神经网络的各个层,逐层进行计算和变换,最终得到神经网络的输出结果。具体来说,正向传播包括以下步骤:1. 输入数据传入输入层:将输入数据传入神经网络的输入层。2. 加权求和:输入数据通过连接输入层的神经元到下一层的连接权重,进行加权求和。每个神经元都有一个偏置项,用于调整加权求和的结果。
2023-08-01 17:03:44
3560
1
原创 【深度学习】多分类神经网络-softmax函数
在机器学习中,会使用二分类算法的Many-vs-Many (多对多)和One-vs-Rest (一对多)模式来进行多分类。其中,OvR是指将多个标签类别中的一类作为类别1,其他所有类别作为类别0,分别建立多个二分类模型,综合得出多分类结果的方法。MvM是指把好几个标签类作为1,剩下的几个标签类别作为0,同样分别建立多个二分类模型来得出多分类结果的方法。会以dim那一维作为一类。k代表标签数,公式的分子部分是多分类状况下某一个标签类别的回归结果的指数函数,分母是所有标签类别的回归结果的指数函数之和。
2023-07-31 21:04:53
499
1
原创 【深度学习】激活函数:Sigmoid、sign、ReLu、tanh
可以将回归算法转化为分类算法:当值大于设定阈值(如0.5)时,预测结果为1类;时,预测结果为0类。
2023-07-31 17:05:19
1222
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人