
MindSpore学习
彪悍大蓝猫
少说话多撸码,人间不值得~
展开
-
昇思25天学习打卡营第08天|模型训练
一次数据集的完整迭代循环称为一轮(epoch)。超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。损失函数(loss function)用于评估模型的预测值(logits)和目标值(targets)之间的误差。模型优化(Optimization)是在每个训练步骤中调整模型参数以减少模型误差的过程。ps:这里的训练和Stable Diffusion中的训练是一样的吗?现在我们有了数据集和模型后,可以进行模型的训练与评估。原创 2024-07-06 11:08:25 · 316 阅读 · 0 评论 -
昇思25天学习打卡营第07天|函数式自动微分
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。我们将根据下面的计算图构造计算函数和神经网络。在这个模型中,𝑥𝑥为输入,𝑦𝑦为正确值,𝑤𝑤和𝑏𝑏是我们需要优化的参数。原创 2024-07-06 09:30:13 · 252 阅读 · 0 评论 -
昇思25天学习打卡营第06天|网络构建
神经网络是一种模拟人脑神经元工作方式的计算模型,它由多个层次的节点(神经元)组成,每个神经元接收输入、进行加权求和并经过非线性激活函数转换后输出到下一层或作为最终输出。使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型表示为一个。提供了常见神经网络层的实现,在MindSpore中,原创 2024-07-02 10:44:53 · 499 阅读 · 0 评论 -
昇思25天学习打卡营第05天|数据变换 Transforms
通常情况下,原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。所有的Transforms均可通过。方法传入,实现对指定数据列的处理。原创 2024-06-29 16:11:20 · 223 阅读 · 0 评论 -
昇思25天学习打卡营第04天|数据集 Dataset
ps:深度学习的数据集Dataset,可能相对于传统的开发中的表、字段、视图。而不仅仅是一张表,因为数据交换的缘故,可能是多张表经过计算后得来的结果集。数据是深度学习的基础,高质量的数据输入将在整个深度神经网络中起到积极作用。MindSpore提供基于Pipeline的。实现高效的数据预处理。其中Dataset是Pipeline的起始,用于加载原始数据。原创 2024-06-29 10:52:33 · 381 阅读 · 0 评论 -
昇思25天学习打卡营第03天|张量Tensor
张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 𝑛维空间内,有 𝑛𝑟个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。𝑟称为该张量的秩或阶(与矩阵的秩和阶均无关系)。ps:张量的的秩或阶与矩阵的秩和阶均无关系。以现阶段零基础水平,认为张量为是多维数组?原创 2024-06-27 16:33:30 · 361 阅读 · 0 评论 -
昇思25天学习打卡营第02天|快速入门
ps:怎么说呢,今天的学习真的是一头雾水的赶脚,勉强把代码都跑了下,嗯,任重而道远。原创 2024-06-26 21:58:38 · 606 阅读 · 0 评论 -
昇思25天学习打卡营第01天|基本介绍
昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。其中,易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。昇思MindSpore总体架构如下图所示:ps:可以看到MindSpore涉及的硬件多,融合多种计算资源,也能看到华为对此框架的投入之大。原创 2024-06-25 22:15:48 · 325 阅读 · 0 评论