- 博客(99)
- 收藏
- 关注
原创 YOLOv10改进 | YOLOv10引入AKConv(轻量)
论文摘要:基于卷积运算只的神经网络 口在深度学习只领域取得了令人瞩目的成果,但标准卷积运算存在两个固有的缺陷。一方面,卷积运算仅限于局部窗口,无法捕获其他位置的信息,并且其采样形状是固定的。另一方面,卷积核的大小固定为kxk,是一个固定的正方形,参数的数量往往随大小呈平方增长。针对上述问题,本工作探索了可改变核卷积(AKConv),它赋予卷积核任意数量的参数和任意采样形状,为网络开销和性能之间的权衡提供更丰富的选择。在 AKConv 中,我们通过新的坐标生成算法定义任意大小的卷积核的初始位置。
2025-01-22 16:12:48
534
原创 【系规】系统规划与管理师重点知识点--第三章 信息技术服务知识
2、服务作为产品有如下特性:无形性、不可分离性、异质性、易消失性;(1)无形性。服务通常是一种行为,无法像有形产品一样展示给客户。客户在购买前很难完全看到服务的产出或成果,也缺乏具体标准以客观判断服务的优劣。因此口碑宣传、企业形象以及客户以往经验等因素对客户选择服务影响很大。(2)不可分离性。实体产品大都先经过生产、销售,而后消费。但服务则不同,服务不能像有形产品一样能够事先生产,服务的生产与消费往往同时进行而不可分割。在大部分情况下,服务提供者与客户要同时介入服务传递的过程中并进行频繁的互动。
2024-11-05 15:44:59
900
原创 【系规】系统规划与管理师重点知识点--第十章 团队建设与管理
1、IT 服务团队具有以下 5 个特征:(1)人员的岗位结构,分为管理岗、技术岗、操作岗,且团队成员相对固定。(2)需要较高的服务意识。IT 服务类项目面向的是客户,通过 IT 技术为客户提供增值服务,从而实现自身的价值。(3)为了提高服务的质量,会使用专用工具,如 IT 服务管理工具、监控工具等。(4)工作具有周期性和重复性的特征,注重流程化与规范化。(5)注重知识的积累及转移,以便主动发现问题及解决问题。
2024-11-04 17:23:29
1273
原创 【系规】系统规划与管理师重点知识点--第八章 监督管理
监督管理是依据国家IT服务标准对IT服务进行整体评价,并对供方的服务过程,交互结果实施监督和绩效评估.质量管理,风险管理和信息安全管理是监督管理的重要内容.IT服务质量管理是通过制定质量方针,质量目标和质量计划,实施质量控制,质量保证和质量改进等活动,确保IT服务满足级别协议的要求,最终获得用户的满意.IT服务风险管理是对已知风险的认识,分析,采取防范和处理措施等一系列的管理过程.对服务进行风险控制和管理,可以最大限度的减少IT服务风险的发生,提高服务成功的概率.
2024-11-01 17:44:41
1027
原创 【系规】系统规划与管理师重点知识点--第七章 IT 服务持续改进
持续改进通过评审和分析服务级别实现的结果,识别和改进IT服务的效率和有效性,在不影响客户满意度的情况下改进IT服务提供的成本效益。2、服务改进的目标是利用管理方针,管理目标,审核结果,服务测量,服务回顾,客户满意度管理,投诉管理及管理评审等活动,租金服务管理能力在有效性和效率方面的持续改进和提升.优化后的服务可以更好的支持过程运行,提升IT对业务的支撑力度.3、服务改进需要进行生命周期管理,主要活动包括服务改进设计,服务改进实施,服务改进验证,设计服务管理人员,技术,资源,过程等方面.
2024-11-01 15:46:46
1028
原创 【系规】系统规划与管理师重点知识点--第六章 IT服务运营管理
需要在 IT 服务运营的过程中对人员要素、资源要素、技术要素和过程要素进行有效的管控;同时,客户是 IT服务运营过程的直接参与者,IT 服务的提供者应控制客户的预期,适当地引导客户以提高其在服务过程中的配合程度,从而有效地达成客户满意。
2024-10-30 15:51:46
893
原创 【系规】系统规划与管理师重点知识点--第五章 IT 服务部署实施
1、IT 服务部署实施是衔接 IT 服务规划设计与 IT 服务运营的中间阶段,负责对服务组件进行客户化,并在充分满足客户要求的前提下,使用标准化的方法管理人员、资源、 技术和过程,包括计划、实施和管理生产环境中的服务变更或新服务发布;同时,将规划设计中的所有要素完整地导入生产环境,为服务运营打下稳定的基础。2、IT 服务部署实施的定位是将 IT 服务运营纳入标准化与规范化的管理轨道,主要包括两方面的内容。(1)运作机制(2)持续改进机制IT 服务部署实施的目标是服务的标准化和规范化。
2024-10-30 10:33:04
985
原创 【系规】系统规划与管理师重点知识点--第四章IT 服务规划设计
(4)策划、实施、检查。单位、(4)服务供方能积极、有效地改变终端用户的消费量及其消费行为、(5)增强客。2、规划设计的范围:新的服务、服务连续性保障、服务水平的满足、对标准、规则的。6、培训内容设计:管理培训、技术培训、工具培训、过程培训、交付和应急培训。(1)确保向需方提供的每个服务都是独立的,而不是某个大服务的一部分。(2)识别客户对于可用性、连续性、信息安全、服务能力、价格和服。8、技术要素设计的活动:技术研发、发现问题的技术、解决问题的。包括服务的内容、连续性、可用性、服务能力和服务费用等。
2024-10-29 17:36:10
1185
原创 Python 爬虫项目实战:爬取某云热歌榜歌曲
网络爬虫(Web Crawler),也成为网页蜘蛛或者网页机器人,是一种按照既定规则自动浏览网络并提取信息的程序。爬虫的主要用途包括数据采集、网络索以及内容抓取等。
2024-10-24 14:14:54
941
原创 一文了解数字孪生是什么?数字孪生赋能哪些行业应用场景
数字孪生,英文名为Didital Twin(数字双胞胎),也成为数字映射、数字镜像。它的官方定义非常复杂,是这么说的:是充分利用物理模型、传感器更新、运行历史等数据,集成多学科、多物理量、多尺度、多概率的仿真过程,在虚拟空间中完成映射,从而反映相对应的实体装备的全生命周期过程。数字孪生是对物理实体的数字化表达。利用物联网、人工智能、大数据分析等先进技术,将物理实体镜像映射到虚拟空间,实现对现实世界的全面感知、镜像再现,在数字孪生世界里构建数字化应用。
2024-10-16 14:13:27
6050
1
原创 Pytorch图像处理篇:使用pytorch搭建ResNet并基于迁移学习训练
model.pyimport torch.nn as nnimport torch#首先定义34层残差结构class BasicBlock(nn.Module): expansion = 1 #对应主分支中卷积核的个数有没有发生变化 #定义初始化函数(输入特征矩阵的深度,输出特征矩阵的深度(主分支上卷积核的个数),不惧默认设置为1,下采样参数设置为None) def __init__(self, in_channel, out_channel, stride=1,..
2022-04-23 10:01:53
2655
1
原创 pytorch图像分类篇:搭建GoolgeLeNet模型的代码
model.pyimport torch.nn as nnimport torchimport torch.nn.functional as F#最后进行定义GoogeLeNet函数class GoogLeNet(nn.Module): #初始化函数(分类的类别个数,是否使用辅助分类器,是否对权重进行初始化) def __init__(self, num_classes=1000, aux_logits=True, init_weights=False): ..
2022-04-22 17:21:39
2994
原创 pytorch图像分类篇:搭建VGG网络
model.pyimport torch.nn as nnimport torch# official pretrain weightsmodel_urls = { 'vgg11': 'https://download.pytorch.org/models/vgg11-bbd30ac9.pth', 'vgg13': 'https://download.pytorch.org/models/vgg13-c768596a.pth', 'vgg16': 'https://..
2022-04-22 15:24:59
3717
2
原创 pytorch图像分类篇: 花分类数据集下载和AlexNet网络搭建训练
一、花分类数据集下载data_setdata_set该文件夹是用来存放训练数据的目录使用步骤如下:(1)在data_set文件夹下创建新文件夹"flower_data"(2)点击链接下载花分类数据集(3)解压数据集到flower_data文件夹下(4)执行"flower_data.py"脚本自动将数据集划分成训练集train和验证集val├── flower_data ├── flower_photos(解压的数据集文件夹,3670个样本) ...
2022-04-20 21:51:30
7776
6
原创 pytorch图像分类篇:pytorch官方demo实现一个分类器(LeNet)
一、说明model.py——定义LeNet网络模型 train.py——加载数据集并训练,训练集计算损失值loss,测试集计算accuracy,保存训练好的网络参数 predict.py——利用训练好的网络参数后,用自己找的图像进行分类测试二、代码实现1、model.pyimport torch.nn as nnimport torch.nn.functional as F#在pytorch中搭建模型#首先建立一个类,把类寄存于nn.Moudel中class LeNet(nn.M
2022-04-20 14:12:24
1589
原创 Pytorch——统计属性的方法
1、norm 求范数范数最为一个统计信息,是最常用的。如何简单的使用norm这个apia=torch.full([8],1) #表示使用full函数生成长度为8的数值全是1的tensorb=a.view(2,4) c=a.view(2,2,2)print(a) #输出[[1.,1.,1.,1.], [1.,1.,1.,1.]]print(c) #输出[[[1.,1.],[1.,1.]], [[1.,1.],[1.,1.]]
2022-04-13 15:28:42
275
1
原创 Pytorch——拼接与拆分
1、cat 拼接例子:两张成绩单的数据第一张成绩单是班级1~4的成绩单第二张成绩单是班级5~9的成绩单a=torch.rand(4,32,8) #表示四个班级的成绩单b=torch.rand(5,32,8) #表示五个班级的成绩单#进行合并torch.cat([a,b],dim=0).shape #第一个参数表示要合并社么数据,第二个参数表示要合并哪个维度上的数据;#输出结果torch.Size([9,32,8])注意:只有需要合并数据的维度的数值可以不一致,其他的数据
2022-04-13 10:41:45
2621
原创 Pytorch——关于Broadcast(自动扩展)
1、broadcasting广播(Broadcast)是 numpy 对不同形状(shape)的数组进行数值计算的方式, 对数组的算术运算通常在相应的元素上进行。如果两个数组 a 和 b 形状相同,即满足a.shape == b.shape,那么 a*b 的结果就是 a 与 b 数组对应位相乘。这要求维数相同,且各维度的长度相同。(1) 与expend函数是一样的,可以扩展维度,但是broadcasting是自动扩展。(2)扩展的时候不需要拷贝数据,可以省略数据。2、broadcast.
2022-04-13 09:54:57
636
原创 Pytorch——tensor维度变换
1、常用的api(1)View/reshape 可以将一个shape转变成任意一个shape(2)Squeeze/unsqueeze 挤压与增加维度(3)Transpose/t/permute (矩阵的传置) 单次的交换操作和多次的交换操作(4)Expand/repeat 维度的扩展 我们可以把维度小的变成高维度的2、view 和reshape这两个基本是一摸一样的,区别在于pytorch0.3中默认的是view函数;a=troch.rand(4,1,28,28) #使用ran
2022-04-12 11:27:44
6646
4
原创 Pytorch——如何创建一个tensor与索引和切片(二)
1、两种常见的随机初始化(1) rand函数rander函数就是随机的使用0和1的均值分布来初始化,也就是说它从零和一的空间中随机的均匀的sample出来,这样数据就回均匀的分布在0和1之间。torch.rand(3,3) #表示随机生成一个3X3的数值在0和1之间的均匀分布的矩阵a=torch.rand(3,3)torch.rand_like(a) #将a,shape读取出来再送给rand函数 (2)randint函数randint的参数表示它要指定一个极小值,一个最小值和一
2022-04-11 18:26:00
1644
原创 Pytorch——如何创建一个tensor与索引和切片(一)
创建Tensornumpy是一个非常常见的数据的一个载体,数据可以先从numpy中间先导进tensor来;1、从numpy引入 import from numpya=np.array([2,3.3])#从numpy中创建一个dim=1,长度为2的一个向量;print(torch.from_numpy(a))#使用torch.from_numpy()的函数将numpy作为参数导进来,数据维持不变#输出结果为tensor([2.0000,3.3000],dtype=torch.float(64
2022-04-11 10:55:48
1781
原创 Pytorch——pytorch的基本数据类型
1、python与pytorch的区别对pytorch来说怎么处理python中的string类型:pytorh没有控件来处理string类型,在pytorch中用数字编码来替代。第一,采用One-hot的形式来表示,[0,1,0,...]第二,采用Embedding的形式来表示,常用的编码器Word2vec和glove。2、pytorch的数据类型3、数据类型的判断a=torch.randn(2,3) #这是一个二维的tensor,随机初始化两行三列print(a.
2022-04-11 09:19:25
1919
原创 动手学深度学习——残差网络ResNet
1、 残差块串联一个层改变函数类,我们希望能扩大函数类;残差块加入快速通道来得到f(x)=x+g(x)的结构:2、ResNet块细节可以使用不同的残差块;高宽减半的ResNet块;后接多个高宽不变的ResNet;3、ResNet架构类似于VGG和GoogleNetde 总体架构,但是替换了ResNet块;4、总结残差块是的很深的网络更加容易训练,甚至可以训练到一千层;残差网络对随后的深层神经网络设计产生了深远影响,无论是卷积类网络还是全连接类网络。.
2022-03-10 10:34:45
2707
原创 动手学深度学习——批量归一化
1、批量归一化损失出现在最后,后面的层训练较快;数据在最底部,底部的层训练的慢;底部层一变化,所有都得跟着变;最后的那些层需要重新学习多次;导致收敛变慢;固定小批量里面的均差和方差:然后再做额外的调整(可学习的参数):2、批量归一化层可学习的参数为γ和β;作用在全连接层和卷积层输出上,激活函数前;全连接层和卷积层输入上;对全连接层,作用在特征维;对于卷积层,作用在通道维上。3、批量归一化在做什么最初是想用它来减少内部变量转移;后续指出它可能就是通过在每个小
2022-03-09 20:58:01
2171
原创 动手学深度学习——含并行连结的网络GoogLenet
1、网络结构2、Inception块四个路径从不同层面抽取信息,然后再输出通道维合并。4条 线路都使⽤了合适的填充来使输⼊与输出的⾼和宽⼀致。第一个Inception块,显示通道数,降低通道数来控制模型复杂度;每条路上通道数可能不同。跟3x3或者5x5卷积层比,Inception块有更少的参数个数和计算复杂度。3、GoogLenet5段,9个Inception块(1)段1和2更小的宽口,更多的通道。(2)段3通道数分配不同;输出通道增加。..
2022-03-09 16:13:45
1049
原创 动手学深度学习———使用块的网络VGG
1、VGG块VGG块的组成规律是:连续使用数个相同的填充为1、窗口形状为2×2的最大池化层。卷积层保持输入的高和宽不变,而池化层则对其减半。我们使用vgg_block函数来实现这个基础的VGG块,它可以指定卷积层的数量和输入输出通道数。2、VGG架构多个VGG块后接全连接层;不同次数的重复块得到不同的架构VGG-16、VGG-19,...3、VGG网络与AlexNet和LeNet一样,VGG网络由卷积层模块后接全连接层模块构成。卷积层模块串联数个vgg_block,其超参数由变量co
2022-03-06 21:15:58
630
原创 动手学习深度学习——深度卷积神经网络Alexnet
1、AlexNet定义 2012年,AlexNet横空出世。这个模型的名字来源于论⽂第⼀作者的姓名Alex Krizhevsky [1]。 AlexNet使⽤了8层卷积神经⽹络,并以很⼤的优势赢得了ImageNet 2012图像识别挑战赛。它⾸次证 明了学习到的特征可以超越⼿⼯设计的特征,从⽽⼀举打破计算机视觉研究的前状。2、AlexNet与LeNet的区别第⼀,与相对较⼩的LeNet相⽐,AlexNet包含8层变换,其中有5层卷积和2层全连接隐藏层,以及1个 全连接输出层。...
2022-03-06 16:41:34
746
原创 动手学深度学习——经典卷积神经LeNet
1、概念及结构LeNet由Yann Lecun 创建,并将该网络用于邮局的邮政的邮政编码识别,有着良好的学习和识别能力。LeNet又称LeNet-5,具有一个输入层,两个卷积层,两个池化层,3个全连接层(其中最后一个全连接层为输出层)。LeNet网络结构图如下:LeNet-5共有7层(不包含输入),每层都包含可训练参数。输入图像大小为32*32,比MNIST数据集的图片要大一些,这么做的原因是希望潜在的明显特征如笔画断点或角能够出现在最高层特征检测子感受野(receptive field)的
2022-03-06 09:42:57
562
原创 动手学深度学习——池化层
1、二维最大池化返回滑动窗口中的最大值2、填充、步幅、和多个通道池化层与卷积层类似,都具有填充和步幅;没有可学习的参数;在每个输入通道应用池化层以获得相应的输出通道;输出通道数=输入通道数;3、平均池化层最大池化层:每个窗口中最强的模式信号平均池化层:将最大池化层中的最大操作替换为平均;4、总结池化层返回窗口中最大或平均值;缓解卷积层对位置的敏感性;同样有窗口大小、填充和步幅作为超参数。5、代码实现"""二维最大池化层和平均池化层""
2022-03-05 16:09:22
1620
原创 深度学习——VGG16模型详解
1、网络结构VGG16模型很好的适用于分类和定位任务,其名称来自牛津大学几何组(Visual Geometry Group)的缩写。根据卷积核的大小核卷积层数,VGG共有6种配置,分别为A、A-LRN、B、C、D、E,其中D和E两种是最为常用的VGG16和VGG19。介绍结构图:conv3-64 :是指第三层卷积后维度变成64,同样地,conv3-128指的是第三层卷积后维度变成128; input(224x224 RGB image) :指的是输入图片大小为224244的彩色图像,通道为
2022-03-02 09:54:08
110956
17
原创 动手学深度学习——卷积层里的多个输入和输出通道
1、多个输入通道彩色图像可能有RGB三个通道,转化为灰度会丢失信息。每个通道都有一个卷积核,结果是所有通道卷积结果的和。用公式表示:2、多个输出通道无论有多少个输入通道,到目前为止我们只用到单输出通道;我们可以有多个三维卷积核,每个核生成一个输出通道。每个输出通道可以识别特定模式;输入通道核识别并组合输入中的模式。3、1x1的卷积层kh=kw=1是一个受欢迎的选择,他不识别空间模式,只是融合通道;1x1的卷积层也可以说是全连接层;卷积层通常⽤来调整⽹络层之
2022-03-01 17:18:01
4068
原创 特征融合的分类和方法
1、特征融合的定义特征融合方法是模式识别领域的一种重要的方法,计算机视觉领域的图像识别问题作为一种特殊的模式分类问题,仍然存在很多的挑战,特征融合方法能够综合利用多种图像特征,实现多特征的优势互补,获得更加鲁棒和准确性的识别结果。2、特征融合的分类按照融合和预测的先后顺序,分类为早融合和晚融合(Early fusion and Late fusion)早融合(Early fusion):就是在特征上进行融合,进行不同特征的连接,输入到一个模型中进行训练。(先融合多层的特征,然后在融合后的特征
2022-03-01 16:19:22
39387
3
原创 动手学深度学习——卷积层里的填充和步幅
1、填充填充(padding)是指在输⼊⾼和宽的两侧填充元素(通常是0元素)。给定(32x32)输入图像;应用5x5大小的卷积核,第一层得到输出大小28x28,第七层得到输出大小4x4;更大的卷积核可以更快的减少输出大小,形状从减少到。也就是行数和列数会较少。注:当想用一个大的卷积核又不想减少输出怎么办?就是进行填充,在输入的周围添加额外的行或者列。在很多情况下,我们会设置和来使输⼊和输出具有相同的⾼和宽。这样会⽅ 便在构造⽹络时推测每个层的输出形状。假设这.
2022-02-27 21:35:35
4497
原创 动手学深度学习——卷积层
从全连接到卷积1、简单例子:分类猫和狗的图片使用一个还不错的相机采集图片(12M像素)RGB图片有36M元素使用100大小的单隐藏层MLP,模型有3.6B元素,远多于世界上所有猫和狗总数(900M狗,600M猫)2、重新考察全连接层将输入和输出变形为矩阵(宽度,高度);将权重变形为4-D张量(h,w)到(h‘,w’)V是W的重新索引3、二维交叉相关4、二维卷积层5、 交叉相关和卷积由于对称性,在实际应用中没有任何区别。6、一维和三维交叉..
2022-02-27 20:36:54
6105
3
原创 动手学深度学习——读取和存储
"""读写TENSOR"""#我们可以直接使用save函数和load函数分别存储和读取Tensor。#save函数使用Python的pickle实用程序将对象进行序列化,然后将序列化对象保存在disk,使用save可以保存各种对象,包括模型、张量和字典等。#load函数使用pickle unpickle工具将pickle的对象文件反序列化为内存。import torchfrom pyexpat import modelfrom torch import nn#创建tensor变量x,并将.
2022-01-26 19:35:54
1974
原创 动手学深度学习——自定义层
"""不含模型参数的自定义层"""#如何定义一个不含模型的自定义层:#下面的CenteredLayer类通过继承Module类自定义了一个将输入减掉均值后输出的层,并将层的计算定义在了forward函数里。#这个层里不含模型参数import torchfrom torch import nnclass CenteredLayer(nn.Module): def __init__(self,**kwargs): super(CenteredLayer,self).__.
2022-01-26 19:21:41
1935
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人