- 博客(14)
- 收藏
- 关注
原创 昇思25天学习打卡营第14天|SSD目标检测
SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。
2024-07-22 01:07:38
729
原创 昇思25天学习打卡营第13天|ShuffleNet图像分类
ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。
2024-07-21 00:17:57
682
原创 昇思25天学习打卡营第12天|ResNet50图像分类
ResNet50是微软实验室的何恺明在2015年提出的残差网络,在ILSVRC2015图像分类竞赛中获得第一名。传统的卷积神经网络堆叠到一定深度时,会出现退化问题(网络越深,误差反而增大)。为了解决这一问题,ResNet引入了残差网络结构,使得网络可以堆叠得更深(超过1000层),且不会出现退化现象。下图展示了在CIFAR-10数据集上,使用传统网络和ResNet网络训练的误差对比图,可以看出,随着ResNet网络层数的增加,训练误差和测试误差显著降低。
2024-07-19 00:28:03
889
原创 昇思25天学习打卡营第11天|ResNet50迁移学习
在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。
2024-07-15 04:57:36
672
原创 昇思25天学习打卡营第10天|FCN图像语义分割
FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。
2024-07-14 01:31:25
951
原创 昇思25天学习打卡营第9天|保存与加载
在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们来学习如何保存与加载模型。
2024-07-08 18:07:18
324
原创 昇思25天学习打卡营第8天|使用静态图加速
AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。
2024-07-07 21:48:49
924
原创 昇思25天学习打卡营第7天|模型训练
从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。训练轮次(epoch):训练时遍历数据集的次数。批次大小(batch size):数据集进行分批读取训练,设定每个批次数据的大小。batch size过小,花费时间多,同时梯度震荡严重,不利于收敛;
2024-07-06 23:52:13
968
原创 昇思25天学习打卡营第6天|函数式自动微分
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。
2024-07-06 00:30:49
652
原创 昇思25天学习打卡营第5天|网络构建
当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。nn.ReLU(),nn.ReLU(),构建完成后,实例化Network对象,并查看其结构。我们构造一个输入数据,直接调用模型,可以获得一个十维的Tensor输出,其包含每个类别的原始预测值。logits在此基础上,我们通过一个nn.Softmax层实例来获得预测概率。
2024-07-05 00:14:34
939
原创 昇思25天学习打卡营第4天|数据变换 Transforms
通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。
2024-07-03 15:01:24
789
原创 昇思25天学习打卡营第3天|数据集 Dataset
模块提供了一些常用的公开数据集和标准格式数据集的加载API。可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。
2024-07-03 00:11:10
578
原创 昇思25天学习打卡营第2天|张量 Tensor
张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。张量个人理解上认为与矩阵、多维数组类似。张量()是MindSpore网络运算中的基本数据结构。
2024-07-02 00:31:45
856
原创 昇思25天学习打卡营第1天|基本介绍与快速入门
昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。其中,易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。昇腾计算,是基于昇腾系列处理器构建的全栈AI计算基础设施及应用,包括昇腾Ascend系列芯片、Atlas系列硬件、CANN芯片使能、MindSpore AI框架、ModelArts、MindX应用使能等。
2024-06-30 12:43:52
979
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人