自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

原创 Scala相关知识学习总结4

(4)动态混入可灵活的扩展类的功能,创建对象时混入 trait,而无需使类混入该 trait,如果混入的 trait 中有未实现的方法,则需要实现。- 定义使用:可被混入类,实现类似接口功能,用 trait 声明,可定义属性、方法,可被类 extends 混入或与类 with 组合使用。- 说明:类与特质是继承关系,继承特质时首用 extends ,后续用 with ,同时继承父类和特质时,父类置于 extends 后。(1) 类可方便混入多个特质,但只能扩展一个抽象类,优先用特质。

2025-04-03 11:55:02 709

原创 Scala相关知识学习总结3

定义语法如 [修饰符] val/var 属性名称 : [类型] = 属性值 , val 修饰的属性不可重新赋值(类似Java的 final ), var 修饰的可重新赋值。- 访问权限:在 Java 中,访问权限分为:public,private,protected 和默认。- 类的定义:和Java类似,定义语法为 class 类名 { } ,Scala中类默认具有公有可见性,一个源文件可包含多个类。1) val 修饰对象,不能改变对象的引用(即:内存地址),可以改变对象属性的值。

2025-04-02 20:52:47 527

原创 Scala相关知识学习总结2—函数式编程

匿名函数:形如 val 变量名 = (参数类型1, 参数类型2) => 函数体 ,参数类型、括号、大括号、 return 等在特定情况可省略。当函数返回值被声明为 lazy 时,函数的执行将被推迟,直到我们首次对此取值,该函数才会执行。(3) 返回值类型如果能够推断出来,那么可以省略(:和返回值类型一起省略)(7) 如果函数无参,但是声明了参数列表,那么调用时,小括号,可加可不加。(8) 如果函数没有参数列表,那么小括号可以省略,调用时小括号必须省略。方法可以进行重载和重写。

2025-04-01 20:40:47 183

原创 Scala相关知识学习总结1

Scala 内置控制结构特地去掉了 break 和 continue,是为了更好的适应函数式编程,推荐使用函数式的风格解决break 和continue 的功能,而不是一个关键字。(4)因为 while 中没有返回值,所以当要用该语句来计算并返回结果时,就不可避免的使用变量,而变量需要声明在 while 循环的外部,那么就等同于循环的内部对外部的变量造成了影响,所以不推荐使用,而是推荐使用 for 循环。需求 4:循环遍历 10 以内的所有数据,奇数打印,偶数跳过(continue)

2025-03-31 19:52:01 709

原创 Scala基础

不可变变量:使用 val 定义,类似Java的 final 变量,需指定类型。- for循环:形式多样,可遍历范围、字符串,数组等,也可通过下标遍历数组。- 可变变量:使用 var 定义,类似Java普通变量,类型可省略。- Windows安装Scala编译器。- Linux安装Scala编译器。- IDEA配置scala。

2025-03-31 19:46:23 253

原创 图像识别技术与应用-Unet系列算法

1. 特征整合方式:U-net+++采用不同的max pool整合低阶特征(如X1和X2,主要是轮廓之类的特征),通过上采样整合高阶特征(感受野大的全局特征)。各层统一用卷积得到64个特征图,最终组合5×64 = 320个特征图,获取全部特征。1. 全面的特征融合:U-net++的整体网络结构在特征融合方面进行了优化,拼接更为全面,其思想与densenet一致,尽可能利用各种可拼接的特征,实现了网络的升级。以往常用加法,而U-net采用了特征拼接的方式,凭借这样简单的结构就能较好地完成分割任务。

2025-03-31 18:04:52 356

原创 Scala简介与基础语法学习总结

定义与背景:Scala是多范式编程语言,集成面向对象与函数式编程特性,运行于JVM,兼容Java程序。2003年由Martin Odersky等人开发,2004年发布,名称意为支持大规模软件开发。

2025-03-31 18:04:26 520

原创 图像识别技术与应用-图像分割项目

实例分割(instance segmentation):只预测前景目标的类别属性、边框以及个体ID,每一个像素可以属于多个ID。- 有5000张精细标注的图像(2975张训练图、500张验证图和1525张测试图)以及20000张粗略标注的图像。- 图像分割是预测目标的轮廓,将不同的像素划分到不同的类别,属于非常细粒度的分类。- 反卷积:输入2*2,输出4*4,卷积核3*3,反卷积操作也可转化为矩阵乘法。- 卷积:输入4*4,输出2*2,卷积核3*3,卷积操作可转化为矩阵乘法。

2025-03-21 10:18:19 408

原创 图像识别技术与应用-YLOL-V4

2. 数据增强:包括调整亮度、对比度、色调、随机缩放、剪切、翻转、旋转等常规操作,还采用了Mosaic data augmentation(参考CutMix将四张图像拼接成一张进行训练 )、Random Erase(用随机值或训练集的平均像素值替换图像区域)、Hide and Seek(根据概率随机隐藏一些补丁),Self-adversarial-training(SAT)【通过引入噪音点来增加游戏难度】。- GIOU损失:引入最小封闭形状C,直接优化距离,速度更快,解决了部分IOU损失的问题。

2025-03-18 08:57:14 738

原创 图像识别技术与应用-YOLO-V3

13×13特征图:(116x90),(156x198),(373x326)。- 26×26特征图:(30x61),(62x45),(59x119)。- 52×26特征图:(10x13),(16x30),(33x23)。3. 多scale检测:为检测不同大小物体设计3个scale。7. 先验框设计:YOLO-V2选5个,YOLO-V3有9种。- 先验框更丰富,有3种scale,每种3个规格,共9种。- 特征更细致,融入多持续特征图信息预测不同规格物体。- 3种scale,更多先验框,融入当下经典做法。

2025-03-18 08:56:58 258

原创 图像识别技术与应用-YOLO系列

以GoogLeNet为基础,包含多个卷积层(C.R)、全连接层(FC.R、FC),经过一系列操作后,最终输出7x7x30的张量。其中,7x7表示最终网格的大小,30代表每个网格预测的信息维度,包含2个边界框(每个边界框5个信息:x,y,w,h,c)和20个类别概率信息 ,即(SS)(B*5+C)。2. 优势:堆叠3个33的卷积层,并且保持滑动窗口步长为1,感受野就是7*7的了,但堆叠小卷积核所需参数更少,特征提取更细致,加入的非线性变换更多,且不会增大权重参数个数,这是VGG网络的基本出发点。

2025-03-12 17:47:17 819

原创 图像识别技术与应用 - 目标检测项目学习总结

6. 非极大值抑制(NMS):设定目标框置信度阈值(常用0.5左右),按置信度降序排列候选框列表,选取置信度最高的框添到输出列表并从候选框列表删除,计算候选框列表中框与该框的IoU,删除大于阈值的框,重复操作至候选框列表为空,返回输出列表。包含4大类、20小类。2. 检测结果类别:通过TP(真的正样本,IoU>阈值)、FP(假的正样本,IoU<阈值)、TN(真的负样本)、FN(假的负样本,漏检目标)来划分检测结果。- YOLO(TXT)格式:(x,y,w,h)分别代表中心点坐标和宽、高,且均为归一化结果。

2025-03-11 11:26:02 772

原创 图像识别技术与应用总结

训练模型时,首先要进行数据加载,借助如PyTorch的 torchvision 等工具,对源数据进行下载、预处理,并构建数据迭代器,为后续训练提供合适的数据格式。在模型训练阶段,将模型设为训练模式,按批次读取数据,进行正向传播计算预测值,用损失函数计算损失,反向传播求梯度,优化器更新参数;核心组件有层、模型、损失函数和优化器。在实例中,以MNIST数据集为基础,利用PyTorch和torchvision进行数据下载、预处理并建立数据迭代器,构建含两个隐含层的神经网络模型,实例化模型后定义损失函数和优化器。

2025-03-11 11:20:47 500

原创 手写数字识别项目

模型实例化: model = Net(28 * 28, 300, 100, 10) 创建一个 Net 类的实例,输入维度为 28 * 28 (假设输入图像是28x28像素的MNIST数据集),两个隐藏层的神经元数量分别为300和100,输出维度为10(对应10个类别)。- x = F.softmax(self.out(x),dim=1) 对输出层的结果应用Softmax函数,将输出转换为概率分布, dim=1 表示按行计算,即对每个样本的输出进行Softmax操作。

2025-03-10 17:20:56 587

原创 机器学习(集成算法)

集成算法的主要框架,包括集成学习的简介以及集成算法的分类,分类包含Bagging(及其衍生的随机森林 )、Boosting、Stacking。- 集成学习( ensemble learning )通过构建并结合多个学习器来完成学习任务,多个个体学习器的结果会输入到结合模块后输出。- 集成学习结果常通过投票法(少数服从多数原则)产生,并通过三个测试示例展示了集成提升性能、集成不起作用、集成起负作用三种情况。- 结合策略有简单平均法,公式为。

2025-03-05 17:55:46 88

原创 使用卷积神经网络实现CIFAR10多分类-2

sum(x.numel() for x in net.parameters()) 是一个生成器表达式,它遍历 net.parameters() 返回的所有参数张量( x ),然后使用 numel 方法获取每个张量中的元素数量(即参数数量),最后通过 sum 函数将所有张量的元素数量相加,得到模型参数的总数。- outputs = net(images) :将图像数据输入到神经网络 net 中,进行前向传播,得到模型的输出 outputs ,这些输出通常是每个类别的预测分数。

2025-03-05 17:04:48 577

原创 使用卷积神经网络实现CIFAR10多分类-1

self.conv1 = nn.Conv2d(in_channels=3, out_channels=16, kernel_size=5, stride=1) :定义第一个二维卷积层,输入通道数为3(通常用于RGB图像),输出通道数为16,卷积核大小为5x5,步长为1。-(conv1): Conv2d(3, 16, kernel_size=(5, 5), stride=(1, 1)) :第一个卷积层,输入通道数为 3 (通常对应RGB图像),输出通道数为 16 ,卷积核大小为 5x5 ,步长为 1。

2025-03-03 20:29:08 657

原创 Pytorch神经网络工具箱(2)

残差块有两种,一种是正常的模块方式,将输入与输出相加,然后应用激活函数ReLU。-另一种是为使输入与输出形状一致,需添加通过1×1卷积调整通道和分辨率。- 组合这两个模块得到现代经典RetNet18网络结构。1、使用nn.Sequential模型容器。2、使用nn.ModuleList模型容器。3、使用nn.ModuleDict模型容器。5、循环测试或验证模型。1、加载预处理数据集。

2025-03-02 13:28:12 202

原创 图像分类项目

可以用来表示模型的精度,即模型识别正确的个数/样本的总个数。主对角线的元素之和为正确分类的样本数量,其余元素的值为错误分类的样本数量,其余元素的值越大,分类器准确率越高。准确率(Precision):又称为查准率,表示在模型识别为正类的样本中,真正为正类的样本所占的比例。召回率(Recall):又称为查全率,表示模型正确识别出为正类的样本的数量占总的正类样本数量的比值。被分类类别为第i类的数量,矩阵元素Cij表示第i类样本被分类类别为第j类的数量。·将不同的图像,划分到不同的类别标签,实现最小的分类误差。

2025-03-02 13:09:50 377

原创 Pytorch数据处理工具箱(4)

可视化类型: Scalar 可视化单一数值变化, Image 展示图像数据, Graph 呈现计算图,还有 Histogram 、 Embedding 等多种类型,可从不同角度观察模型训练和数据特征。cd到logs目录所在的同级目录,在命令行输入如下命令,logdir等式右边可以是相对路径或绝对路径。1)导入tensorboard,实例化SummaryWriter类,指明记录日志路径等信息。- transforms提供了对PIL Image对象和Tensor对象的常用操作。

2025-03-02 13:08:05 379

原创 Pytorch数据处理工具箱(3)

DataLoader:可以批量处理。相关参数介绍如下所示。·_getitem_一次只能获取一个样本。2.DataLoader:可以批量处理。

2025-03-02 12:53:19 205

原创 Pytorch神经网络工具箱(1)

它能够很好的与 nn . Sequential 结合使用,而 nn . functional . xxx 无法与 nn . Sequential 结合使用。包含层、模型、损失函数、优化器等神经网络核心组件,以及构建神经网络的主要工具(nn.Module和nn.functional),介绍了构建模型的不同方式,如继承nn.Module基类、使用nn.Sequential按层顺序构建、继承nn.Module类并使用模型容器构建、自定义网络模块等。- 使用nn.Sequential按层顺序构建模型的方法。

2025-02-24 17:12:34 403

原创 卷积神经网络学习总结(2)

网络特点:AlexNet比LeNet更深入更大以获得更强性能,思考能否更深入,过多稠密层开销太大,因而采用更多卷积层并将卷积层组合成块。、简介:AlexNet比LeNet更深更大以获得更强性能,VGG网络有更细的卷积(3x3卷积)、更多的层(模块)、更多卷积层组合。、步长更大,图像尺寸更大、输出通道更多,有更多的卷积层和全连接层,隐藏层使用ReLU激活函数,输出层使用softmax。的模型,可以让模型来自动学习好的特征表示(从底层特征,到中层特征,再到高层特征),从而最终提升预测或识别的准确性。

2025-02-23 17:57:08 690

原创 【卷积神经网络学习总结(1)】

平移不变性:不管检测对象出现在图像中的哪个位置,神经网络的前面几层都应该对相同的图像区域具有相似的反应。- 局部性:神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远的区域的关系。给定输入大小224×224,在使用5×5卷积核的情况下,需要55层将输出降低到4×4,需要大量的计算。步幅是每次滑动核窗口时的行/列的步长,可以成倍的减少输出形状填充和步幅可用于有效地调整数据的维度。使用100个神经元单隐含层的MLP,模型有36亿个参数,远超过地球上的狗和猫的数量。

2025-02-23 17:47:12 243

原创 【多层感知机】

在神经网络的学习过程中,模型依据输入样本不断调整连接权值甚至拓扑结构,使输出接近预期。训练误差是模型在训练数据集上的误差,泛化误差则反映模型在新数据上的表现。此外,验证数据集和测试数据集用于评估和选择模型,K - 折交叉验证在数据量不足时可有效评估模型性能。它接受输入x,通过权重w和偏置b计算并输出结果,在简单逻辑电路中应用广泛,如与门、与非门、或门等。在模型训练中,过拟合和欠拟合是常见问题。- S型(Sigmoid)激活函数:把输入投影到(0, 1)区间,是较为经典的激活函数。感知机:神经网络的雏形。

2025-02-20 11:35:30 129

原创 线性回归和softmax回归

监督学习作为其重要分支,通过“特征 - 标签”对来训练模型,以实现对新输入特征的标签预测,例如房价预测任务,就是利用房屋的各种特征来预测其销售价格。它在图像分类(如ImageNet项目推动图像识别技术进步)、目标检测与分割(应用于安防、自动驾驶等)、人脸合成、机器翻译、图像描述生成、自然语言文本合成等众多领域取得了令人瞩目的成果,极大地改变了我们的生活和工作模式。机器学习和深度学习的发展为解决各种复杂问题提供了强大的工具,但也面临着一些挑战,如数据隐私与安全、算法的可解释性等。

2025-02-18 11:47:11 207

原创 图像识别技术与应用初步学习总结

指纹、人脸识别解锁,人脸支付,电商平台的商品推荐、智能物流与仓储机器人,短视频平台的推荐、搜索排序及新闻推荐,还有智能助手、智能语音、图像编辑等功能,都运用到了相关技术。在图像识别中,欠拟合和过拟合是两个常见的问题。欠拟合是指模型在训练数据上的性能不佳,而过拟合是指模型过度拟合训练数据,导致在新数据上的性能下降。人工智能,即用人工的方法在机器(计算机)上实现的智能,其理论、方法、技术及应用系统构成了一门技术科学。在科技飞速发展的今天,图像识别技术作为人工智能领域的重要组成部分,正深刻地改变着我们的生活。

2025-02-17 18:21:54 205

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除