
昇思大模型
文章平均质量分 96
Knight_V_Schumacher
随便想想,随便看看,随便写写,如有不当之处,敬请各位斧正
展开
-
昇思25天学习打卡营第25天|RNN实现情感分类
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!情感分类是自然语言处理中的经典任务,是典型的分类问题。输入: This film is terrible正确标签: Negative预测标签: Negative输入: This film is great正确标签: Positive预测标签: Positive。原创 2024-07-17 14:59:36 · 754 阅读 · 0 评论 -
昇思25天学习打卡营第24天|LSTM+CRF序列标注
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落。原创 2024-07-16 15:31:49 · 1036 阅读 · 0 评论 -
昇思25天学习打卡营第23天|Pix2Pix实现图像转换
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!原创 2024-07-16 11:27:56 · 706 阅读 · 0 评论 -
昇思25天学习打卡营第22天|GAN图像生成
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;原创 2024-07-16 10:50:07 · 638 阅读 · 0 评论 -
昇思25天学习打卡营第21天|Diffusion扩散模型
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。原创 2024-07-15 17:30:19 · 1267 阅读 · 0 评论 -
昇思25天学习打卡营第20天|DCGAN生成漫画头像
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!原创 2024-07-15 16:04:31 · 802 阅读 · 0 评论 -
昇思25天学习打卡营第19天|CycleGAN图像风格迁移互换
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。原创 2024-07-15 15:19:21 · 1028 阅读 · 0 评论 -
昇思25天学习打卡营第18天|基于MobileNetv2的垃圾分类
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。原创 2024-07-13 16:49:28 · 1052 阅读 · 0 评论 -
昇思25天学习打卡营第17天|基于MindSpore的红酒分类实验
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。原创 2024-07-13 16:25:11 · 1096 阅读 · 0 评论 -
昇思25天学习打卡营第16天|Vision Transformer图像分类
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。原创 2024-07-09 17:12:20 · 1176 阅读 · 0 评论 -
昇思25天学习打卡营第15天|SSD目标检测
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。原创 2024-07-08 22:22:16 · 925 阅读 · 0 评论 -
昇思25天学习打卡营第14天|ShuffleNet图像分类
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。原创 2024-07-07 20:46:42 · 1041 阅读 · 0 评论 -
昇思25天学习打卡营第13天|ResNet50图像分类
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。原创 2024-07-06 15:29:30 · 859 阅读 · 0 评论 -
昇思25天学习打卡营第12天|ResNet50迁移学习
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!本章节主要描述了使用昇思大模型完成ResNet50迁移学习的主要功能。迁移学习的本质是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中。具体而言,本章节包含了迁移学习的数据准备、加载数据集、训练模型等三部分。原创 2024-07-05 14:27:26 · 909 阅读 · 0 评论 -
昇思25天学习打卡营第11天|FCN图像语义分割
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)原创 2024-07-04 22:07:40 · 980 阅读 · 0 评论 -
昇思25天学习打卡营第10天|使用静态图加速
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。本章节主要描述了昇思大模型使用静态图加速的主要功能。文章首先介绍了动态图和静态图两种工作模式,其中,由于动态图的参数在定义时就被确定,因此难以优化;原创 2024-07-03 19:42:47 · 880 阅读 · 0 评论 -
昇思25天学习打卡营第9天|保存与加载
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!本章节主要描述了昇思大模型模型保存与加载的主要功能,其主要分为两部分,分别是保存和加载模型权重,以及保存和加载MindIR两部分。在保存和加载模型权重中,模型经初始化和实例化后,昇思大模型可指定的路径,并加载对应的模型权重;原创 2024-07-02 21:04:32 · 387 阅读 · 0 评论 -
昇思25天学习打卡营第8天|模型训练
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!从网络构建中加载代码,构建一个神经网络模型。self.dense_relu_sequential = nn.SequentialCell( #网络依序搭建nn.Dense(28*28, 512), #全连接层,输入通道数为28*28,输出通道数为512。原创 2024-07-01 14:36:57 · 645 阅读 · 0 评论 -
昇思25天学习打卡营第7天|函数式自动微分
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!本章节主要介绍了昇思大模型中函数式自动微分的主要功能,包括函数与计算图、微分函数与梯度计算、停止梯度计算(Stop Gradient)、辅助数据(Auxiliary data)和神经网络梯度计算及它们对搭建深度神经网络模型的作用。原创 2024-06-30 20:49:28 · 736 阅读 · 0 评论 -
昇思25天学习打卡营第6天|网络构建
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建,相关内容详见使用静态图加速。原创 2024-06-29 15:03:36 · 1104 阅读 · 0 评论 -
昇思25天学习打卡营第5天|数据变换 Transforms
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!本章节展示了昇思大模型对于数据变换Transforms的用法以及实际代码。具体而言,昇思大模型的数据变换操作包括普通变换(Common Transforms)、视觉变换(Vision Transforms)、文本变换(Text Transforms)和Lambda变换(Lambda Transforms)。原创 2024-06-28 19:42:14 · 634 阅读 · 0 评论 -
昇思25天学习打卡营第4天|数据集Dataset
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。原创 2024-06-28 00:05:29 · 983 阅读 · 0 评论 -
昇思25天学习打卡营第3天|张量Tensor
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!本章节展示了昇思大模型对于张量和稀疏张量的用法以及实际代码。具体而言,它很好地适应了numpy中tensor相关的结构,在支持张量进行较为基础的信息输出和基本运算的同时,能够很好地实现Tensor与NumPy转换的问题,为潜在的由于数据格式不统一导致的环境bug或者代码bug问题提供了解决方案。原创 2024-06-26 23:28:57 · 983 阅读 · 0 评论 -
昇思25天学习打卡营第2天|快速入门
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!文章使用昇思大模型搭建简单的卷积神经网络,完成图像分类任务。基于MNIST数据集,使用全连接的方法,搭建了输入层、单个隐藏层、输出层的三层CNN。经过3个epoch,每轮938个iteration的训练,最终达到了91.9的准确率和0.28的平均损失。原创 2024-06-25 20:48:51 · 816 阅读 · 0 评论 -
昇思25天学习打卡营第1天|基本介绍
从今天起,笔者将以打卡的方式,将原文搬运和个人思考结合,分享25天的学习内容与成果。为了提升文章质量和阅读体验,笔者会将思考部分放在最后,供大家探索讨论。同时也欢迎各位领取算力,免费体验昇思大模型!本节将会整体介绍昇思MindSpore和华为昇腾AI全栈,并介绍昇思MindSpore在华为昇腾AI全栈中的位置。对昇思MindSpore感兴趣的开发者,最后可以参与昇思MindSpore的社区并一键三连。昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。原创 2024-06-24 17:15:27 · 1000 阅读 · 0 评论