自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 昇思25天学习营打卡第11天|ResNet50迁移学习

在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。迁移学习详细内容见。

2024-07-16 17:04:40 1050

原创 昇思25天学习营打卡第10天|FCN图像语义分割

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。

2024-07-16 01:09:07 1071

原创 昇思25天学习打卡营第9天|使用静态图加速

AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。

2024-07-14 15:55:17 928

原创 昇思25天学习打卡营第8天|模型训练,保存与加载

从网络构建中加载代码,构建一个神经网络模型。[8]:nn.ReLU(),nn.ReLU(),​​超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下:公式中,𝑛𝑛是批量大小(batch size),ηη是学习率(learning rate)。

2024-07-13 20:12:09 1904

原创 昇思25天学习打卡营第7天|函数式自动微分

在探索函数式自动微分的过程中,我深刻感受到数学与编程的奇妙结合。自动微分技术的出现,不仅简化了复杂的求导过程,还提升了模型训练的效率。通过MindSpore的接口,我们可以更直观地理解和实现自动微分。这种工具的便捷性,激励我们不断探索前沿科技,提升科研和工程实践能力。未来,我将继续深入学习和应用这些技术,为解决实际问题贡献自己的力量。

2024-07-12 16:29:19 909

原创 昇思25天学习打卡营第6天|网络构建

当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建,相关内容详见使用静态图加速。[2]:nn.ReLU(),nn.ReLU(),​构建完成后,实例化Network对象,并查看其结构。

2024-06-28 23:32:15 2104

原创 昇思25天学习打卡营第5天|数据变换Transformer

通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。下面分别对其进行介绍。

2024-06-28 21:57:36 1964

原创 昇思25天学习打卡营第4天|数据集Dataset

模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集,下面分别对其进行介绍。

2024-06-28 12:04:46 641

原创 昇思25天学习打卡营第3天|张量Tensor

在MindSpore中,张量是网络运算的基本数据结构,支持丰富的创建和操作方式,包括从NumPy数组生成、初始化器初始化,以及稀疏张量的表示和操作。在某些应用场景中(比如推荐系统、分子动力学、图神经网络等),数据的特征是稀疏的,若使用普通张量表征这些数据会引入大量不必要的计算、存储和通讯开销。张量之间有很多运算,包括算术、线性代数、矩阵处理(转置、标引、切片)、采样等,张量运算和NumPy的使用方式类似,下面介绍其中几种操作。表示非零元素的值,shape表示的是被压缩的稀疏张量的形状。

2024-06-24 19:48:43 822

原创 昇思25天学习打卡营第2天|快速入门

快速入门深度学习模型的构建和训练,可以通过MindSpore的API轻松实现。以下是我的一些感悟:在本节中,我们通过MindSpore的高效数据处理流水线和灵活的网络构建机制,快速完成了一个简单的深度学习模型。从数据下载、预处理,到模型构建、训练和测试,每一步都有详细的示例代码,方便新手快速上手。通过这次实践,我深刻体会到数据预处理的重要性。使用MindSpore的dataset和transforms模块,我们能够轻松地对MNIST数据集进行处理,提高了数据处理的效率,为后续的模型训练打下了坚实的基础。

2024-06-20 22:40:31 708

原创 昇思25天学习打卡营第1天|基本介绍

本节将会整体介绍昇思MindSpore和华为昇腾AI全栈,并介绍昇思MindSpore在华为昇腾AI全栈中的位置。对昇思MindSpore感兴趣的开发者,最后可以参与昇思MindSpore的社区并一键三连。昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。其中,易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。ModelZoo(模型库)

2024-06-19 12:57:11 615

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除