- 博客(12)
- 收藏
- 关注
原创 STL---算法
iterator beg:起始迭代器iterator end:结束迭代器_func:函数iterator beg1:起始迭代器1iterator end1:结束迭代器 1iterator beg2:起始迭代器2_func:操作函数。
2024-08-06 21:00:06
438
原创 STL--容器
1、①、通过while循环遍历②、通过for循环遍历③、通过STL内置的for_each算法遍历2、存放自定义数据类型原理与上述一致,没太大区别,示例代码如下3、vector的嵌套vector容器内也可存放小容器,即为容器嵌套。
2024-08-06 16:36:38
899
原创 C++学习笔记---泛型编程
在堆区开辟数据在函数中如果要对局部变量(属于栈区)的地址进行返回,但如果其被编译器释放,即为非法操作,这时就需用到new来开辟堆区数据。
2024-08-05 15:45:03
247
原创 神经网络模型验证
用之前的神经网络训练的模型进行验证,即。该网络是一个分类模型,导入一张狗的图片。可以看出,正确的预测了dog类。该网络模型的10个类编号。
2024-05-16 18:37:22
231
1
原创 PyTorch学习总结--完整训练
训练过程中定义了损失函数,激活函数,优化器,并进行了测试,计算了测试准确率,并用tensorboard进行可视化,数据集采用torchvision的CIFAR10。🔥可以看出,损失都在不断减少,而准确率在升高。
2024-05-16 13:56:11
427
1
原创 神经网络模型的修改
网络结构,可以看出,此网络是个分类模型,有1000个类别,而之前所用到的CIFAR10只有10个类别,怎么运用这个模型呢?🧐很简单,在最后加个线性层,将1000->10。💬或者也可以直接对模型进行修改,无需添加。先加载vgg16网络模型。
2024-05-15 22:11:12
266
原创 PyTorch学习笔记三
官方文档在torch.opim中,首先先构建一个优化器,传入模型和学习速率,接着调用step()方法进行调参,在每一个batch-size训练过程中,需将上一个batch-size训练的梯度参数进行清0.利用第一节中的损失函数加入优化器,训练10轮。利用损失函数所获得的梯度对各个神经节点进行调参优化。运用损失函数获得的梯度进行反向传播。🟢为更新输出、调整参数提供依据。首先加载数据集,构建神经网络。🟢计算输出值和目标的差距。交叉熵,训练分类问题时使用,公式如下。输入任意维度,输出相同维度。
2024-05-15 14:21:57
913
原创 神经网络的搭建
💙在第二节模型构建中,可见代码异常啰嗦。这时候就可以采用 Sequential解决。💙根据下式计算padding(填充)参数。💙用tensorboard查看。
2024-05-14 18:05:50
378
2
原创 PyTorch学习笔记二
所有搭建的神经网络都应该以这个为父类,下面是官方给的源代码手动搭建一个神经网络,实现输入×2,重写__init__、forward方法。
2024-05-14 14:36:03
652
1
原创 pandas学习笔记
他是前一篇博文介绍的numpy类似,是一个开源的数据分析和数据处理库,是numpy的扩展,如果把numpy比作一个列表,那么pandas就可以看作字典。可以对数组中不同行不同列进行命名。DataFrame和Series。
2024-05-11 13:02:01
889
1
原创 numpy学习笔记
numpy是python提供的关于矩阵运算的库,在计算机视觉领域离不开这个库,可以让代码的运算量减少很多倍,降低cpu的损耗。
2024-05-10 14:19:03
377
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人