自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(29)
  • 收藏
  • 关注

原创 J1 ResNet-50算法实战与解析

虽然BN可以在一定程度上保持梯度的大小稳定,但当层级数加大时不但不容易收敛,还容易出现准确率饱和并迅速下降,这一下降由网络过于复杂导致。ResNet有一个额外的分支把输入直接连在输出上,使输出为分支输出+卷积输出,通过人为制造恒等映射使整个网络朝恒等映射的方向去收敛。较深的ResNet网络(右):先用1x1卷积进行降维,然后3x3卷积,最后用1x1升维恢复原有维度,又称bottleneck结构。较浅的ResNet网络(左):两层残差单元包含两个相同输出通道数的3x3卷积。

2025-04-04 00:06:22 313

原创 T11 TensorFlow入门实战——优化器对比实验

【代码】T11 TensorFlow入门实战——优化器对比实验。

2025-03-28 20:29:46 301

原创 T10 TensorFlow入门实战——猫狗识别2

随机改变图像对比度。

2025-03-20 23:50:16 353

原创 T9 TensorFlow入门实战——猫狗识别2

与上次代码相比,此处只记录了 最后一个 batch 的 loss 和 accuracy。3. 增加BatchNormalization和Droupout防止过拟合。1. 数据增强(提高模型泛化能力)2. 代码模块化,增加可读性。

2025-03-14 20:44:45 272

原创 T8 TensorFlow入门实战——猫狗识别

1)训练时间过长,调参难度大。2)需要的存储容量大,不利于部署。例如存储VGG-16权重值文件的大小为500多MB,不利于安装到嵌入式系统中。VGG的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2)。在调用VGG时,class数量设为了1000,可能会导致模型很难收敛,应改为。总是返回 (batch_size, num_classes),必须使用。Learning rate decay在更新时函数没有被正确调用,应改为。取出第一张图片的预测结果,应该修改为。

2025-03-07 20:29:38 254

原创 T7 TensorFlow入门实战——咖啡豆识别

【代码】T7 TensorFlow入门实战——咖啡豆识别。

2024-12-27 11:29:34 541

原创 T6 TensorFlow入门实战——好莱坞明星识别

【代码】T6 TensorFlow入门实战——好莱坞明星识别。

2024-12-20 06:19:26 309

原创 T5 TensorFlow入门实战——运动鞋品牌识别

是 TensorFlow 中的一个学习率衰减策略,用于在训练神经网络时动态地降低学习率。学习率衰减是一种常用的技巧,可以帮助优化算法更有效地收敛到全局最小值,从而提高模型的性能。

2024-12-14 02:50:09 917

原创 T4 TensorFlow入门实战——猴痘病识别

2但是广义上来讲,验证集存在的意义确实参与了一个“人工调参”的过程,我们根据每一个epoch训练之后模型在valid data上的表现来决定是否需要训练进行early stop,或者根据这个过程模型的性能变化来调整模型的超参数,如学习率,batch_size等等。在此示例中,我们的 CNN 输入的形状是。1验证集并没有参与训练过程梯度下降过程的,狭义上来讲是没有参与模型的参数训练更新的。3因此,我们也可以认为,验证集也参与了训练,但是并没有使得模型去overfit验证集。,包含了图像高度、宽度及颜色信息。

2024-12-02 20:27:13 429

原创 T3 TensorFlow入门实战——天气识别

color_channels 为 (R,G,B) 分别对应 RGB 的三个颜色通道(color channel)。在此示例中,我们的 CNN 输入形状是。在准备对模型进行训练之前,还需要再对其进行一些设置。卷积神经网络(CNN)的输入是张量 (Tensor) 形式的。通过class_names同样可以输出数据集标签。,包含了图像高度、宽度及颜色信息。我们需要在声明第一层时将形状赋值给参数。

2024-11-27 20:59:15 615 1

原创 T2 TensorFlow入门实战——彩色图片分类

池化层对提取到的特征信息进行降维,一方面使特征图变小,简化网络计算复杂度;另一方面进行特征压缩,提取主要特征,增加平移不变性,减少过拟合风险。但其实池化更多程度上是一种计算性能的一个妥协,强硬地压缩特征的同时也损失了一部分信息,所以现在的网络比较少用池化层或者使用优化后的如SoftPool。池化层包括最大池化层(MaxPooling)和平均池化层(AveragePooling),均值池化对背景保留更好,最大池化对纹理提取更好)。通过模型进行预测得到的是每一个类别的概率,数字越大该图片为该类别的可能性越大。

2024-11-22 02:01:44 391

原创 T1 TensorFlow入门实战——实现mnist手写数字识别

输出测试集中第一张图片的预测结果。

2024-11-12 22:33:22 310 1

原创 P10 Pytorch入门实战——Pytorch实现车牌识别

【代码】P10 Pytorch入门实战——Pytorch实现车牌识别。

2024-11-05 23:32:11 452

原创 P9 Pytorch入门实战——YOLOv5-Backbone模块实现

【代码】P9 Pytorch入门实战——YOLOv5-Backbone模块实现。

2024-11-01 18:57:47 235

原创 P8 Pytorch入门实战——YOLOv5-C3模块实现

【代码】P8 Pytorch入门实战——YOLOv5-C3模块实现。

2024-10-23 20:20:58 230

原创 P7 Pytorch入门实战——马铃薯病害识别(VGG-16复现)

如果没安装torchsummary需要先使用pip进行安装。

2024-10-18 02:07:35 375

原创 P6 Pytorch入门实战——VGG-16算法实现人脸识别

VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。

2024-10-11 21:57:49 673

原创 P5 Pytorch入门实战——运动鞋识别

等间隔动态调整方法,每经过step_size个epoch,做一次学习率decay,以gamma值为缩小倍数。我们在此处添加了图像处理,修改了loss function,并在模型上选用了Resnet。此步骤还可以调用官方动态学习率接口。在特定的 epoch 中调整学习率。根据自己定义的函数更新学习率。

2024-10-04 14:08:54 566

原创 P4 Pytorch入门实战——猴痘病识别

是一个存储了数据集类别和对应索引的字典。在PyTorch的ImageFolder数据加载器中,根据数据集文件夹的组织结构,每个文件夹代表一个类别,class_to_idx字典将每个类别名称映射为一个数字索引。利用lr_scheduler,让学习率每10个epoch减少到原来的50%

2024-09-27 21:53:15 391

原创 P3 Pytorch入门实战——Pytorch实现天气识别

该方法将总体数据total_data按照指定的大小比例([train_size, test_size])随机划分为训练集和测试集,并将划分结果分别赋值给train_dataset和test_dataset两个变量。它允许你以小批次的方式迭代你的数据集,这对于训练神经网络和其他机器学习任务非常有用。常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。是每个卷积核的参数数量,加上一个偏置项,再乘以卷积核的数量。方法不会改变x本身,而是返回一个新的张量。

2024-09-16 03:24:17 872

原创 P2 Pytorch入门实战——CIFAR10彩色图片识别

常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。测试函数和训练函数大致相同,但是由于不进行梯度下降对网络权重进行更新,所以不需要传入优化器。使用dataloader加载数据,并设置好基本的batch_size。使用dataset下载CIFAR10数据集,并划分好训练集与测试集。是每个卷积核的参数数量,加上一个偏置项,再乘以卷积核的数量。,只是减小了宽度和高度。, 输出特征图的尺寸。假设输入特征图尺寸为。

2024-09-05 22:11:55 956

原创 P1 Pytorch入门实战——Pytorch实现mnist手写数字识别

MNIST手写数字数据集来源于是美国国家标准与技术研究所,是著名的公开数据集之一。数据集中的数字图片是由250个不同职业的人纯手写绘制包含了70000张图片,其中60000张为训练数据,10000为测试数据,70000张图片均是28*28。如果我们把每一张图片中的像素转换为向量,则得到长度为28*28=784的向量。因此我们可以把训练集看成是一个的张量,第一个维度表示图片的索引,第二个维度表示每张图片中的像素点。而图片里的每个像素点的值介于0-1之间。

2024-08-30 21:51:36 1244

原创 L8 机器学习——糖尿病探索与预测

核心线性回归是一种用于预测连续变量的统计方法,假设输入特征与输出变量之间存在线性关系。模型的目标是找到一条最佳拟合线,使得预测值与实际值之间的误差最小。可以解决的问题线性回归主要用于解决回归问题,比如预测房价、销售额、温度等连续值。优势简单易理解:线性回归模型简单、直观,易于解释模型输出,特别是系数的意义。计算效率高:由于模型简单,训练和预测速度快,适合处理大规模数据。易扩展:可以通过添加多项式特征或使用正则化(如Lasso、Ridge)来处理更复杂的关系。劣势线性假设。

2024-08-21 23:11:37 1189 1

原创 L7 机器学习——随机森林

集成学习是通过构建并结合多个学习器来完成学习任务,其过程是:先产生一组“个体学习器”,再用某种策略将它们结合起来。个体学习器一般就是我们常见的机器学习算法,比如:决策树,神经网络等。这里集成一般有两种:同质和异质。同质是指个体学习器全是同一类型,这种同质集成中的个体学习器又称“基学习器”。异质是指个体学习器包含不同类型得学习算法,比如同时包含决策树和神经网络。一般我们常用的都是同质的,即个体学习器都是同一类型的。集成学习通过将多个基学习器结合,通常都会获得比单一学习器显著优越的泛化性能。

2024-08-15 06:05:25 859

原创 L5 机器学习——决策树模型

这一算法的开发灵感源自人类在解决问题时的思考方式,我们往往通过一系列简单而直观的问题逐步缩小解决方案的范围。决策树的构建过程也是类似的,它通过对数据的特征进行提问,选择最能区分不同类别的特征,逐渐生成树状结构,最终形成一个可用于预测的模型。选择的行是 Iris 数据集中每个类别的前两个样本(第 0 和 1 行对应第一个类别,第 50 和 51 行对应第二个类别,第 100 和 101 行对应第三个类别)。我们希望通过鸢尾花数据,训练一个决策树模型,之后应用该模型,可以根据鸢尾花的四个特征去预测它的类别。

2024-08-08 00:17:39 486

原创 L4 机器学习——K-邻近算法模型(KNN)

背景: 海伦一直使用在线约会网站寻找适合自己的约会对象。尽管约会网站会推荐不同的人选,但她没有从中找到喜欢的人。①不喜欢的人;②魅力一般的人;③极具魅力的人。①每年获得的飞行常客里程数②玩视频游戏所耗时间百分比③每周消费的冰淇淋公升数她希望根据现有的数据来判断一个陌生男人会被她归到哪一类。

2024-07-29 11:00:00 533

原创 L3 机器学习——逻辑回归

逻辑回归(Logistic Regression)用来解决二分类问题,其输出值为离散的0和1。此方法将数据拟合到一个logit函数中,从而完成对事件发生概率的预测。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。这段代码的主要功能是绘制分类器在训练集上的决策边界,并将训练集数据点可视化。5. 设置图表的标题、x 轴标签、y 轴标签,并显示图例,最后显示图表。在第一个特征的范围内生成,步长为 0.01。在第二个特征的范围内生成,步长为 100。

2024-07-22 11:30:00 2058

原创 L2-2 机器学习——线性回归模型(二)

通过预测结果的展示,可以看到,多元线性模型的结果好于简单的一元线性模型。

2024-07-15 10:00:00 673

原创 L2-1 机器学习——线性回归模型(一)

通过两个或多个变量之间的线性关系来预测结果。该处使用的url网络请求的数据。2. 测试集预测结果可视化。

2024-07-10 23:56:52 456 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除