- 博客(25)
- 收藏
- 关注
原创 《昇思25天学习打卡营第25天|K近邻算法实现红酒聚类》
KNN算法通过计算样本间的距离进行分类,适用于多类别数据。其优点是简单直观,无需训练过程;但缺点是计算量大,对噪声敏感。在实际应用中,选择合适的距离度量和K值是关键。
2024-07-17 18:23:13
1098
原创 《昇思25天学习打卡营第24天|基于MindNLP+MusicGen生成自己的个性化音乐》
MusicGen是一个基于人工智能的音乐生成模型,它允许用户通过简单的操作创造出独特的音乐作品。MindSpore封装的MusicGen模型接口直观易用,通过选择不同的音乐风格、节奏和旋律,以及不同的参数设置,可以轻松地定制出符合个人喜好的音乐片段。
2024-07-16 14:56:44
970
原创 《昇思25天学习打卡营第23天|基于MindSpore通过GPT实现情感分类》
GPT模型通过在大规模语料库上预训练,学习了丰富的语言表示和上下文信息。在情感分类任务中,GPT模型可以被微调以识别和分类文本中的情感倾向,如正面、负面或中性。微调时,模型会学习如何从输入文本中提取与情感相关的特征,并将其映射到预定义的情感类别上。这种方法的优势在于,GPT模型能够捕捉文本中的复杂语义和上下文关系,从而提高情感分类的准确性和鲁棒性。
2024-07-15 19:17:13
474
原创 《昇思25天学习打卡营第22天|基于MindSpore的GPT2文本摘要》
GPT-2是OpenAI推出的基于Transformer的生成式预训练模型,擅长文本生成。在文本摘要任务中,GPT-2通过预训练学习语言模式,再通过微调适应摘要任务,能有效提取文章要点并生成简洁摘要。
2024-07-15 19:04:10
497
原创 《昇思25天学习打卡营第21天|基于 MindSpore 实现 BERT 对话情绪识别》
BERT模型基于Transformer架构,通过双向自注意力机制捕捉文本中的上下文信息。这种架构使得模型能够更好地理解词语在不同上下文中的含义,从而提高情绪识别的准确性。
2024-07-15 17:23:59
1095
原创 《昇思25天学习打卡营第20天|Diffusion扩散模型》
扩散模型(Diffusion Models)是一种生成模型,它通过模拟一个数据分布逐渐扩散到噪声分布的过程来生成数据。这种模型在近年来在图像生成、音频合成等领域取得了显著的成果,尤其是在生成高分辨率图像方面表现出色。
2024-07-12 18:32:41
1007
原创 《昇思25天学习打卡营第19天|Pix2Pix实现图像转换》
Pix2Pix是一种基于条件生成对抗网络(cGAN)的图像转换模型,核心思想是利用成对的数据(paired data)进行训练,即每对数据包含一个输入图像和一个对应的目标图像。模型通过学习这些成对数据之间的关系,能够在给定输入图像的情况下生成对应的目标图像。
2024-07-11 14:45:31
929
原创 《昇思25天学习打卡营第18天|GAN图像生成》
生成对抗网络(GAN)是一种强大的深度学习模型,主要用于生成新的数据样本,尤其是在图像生成领域表现出色。GAN由两个主要部分组成:生成器(Generator)和判别器(Discriminator)。GAN在图像生成领域的应用非常广泛,包括艺术创作、数据增强、图像编辑、虚拟现实和游戏等等。尽管GAN在图像生成方面取得了巨大成功,但也存在一些挑战和问题,如模式崩溃(mode collapse)、训练不稳定等。
2024-07-11 14:13:06
706
原创 《昇思25天学习打卡营第17天|DCGAN生成漫画头像》
DCGAN(Deep Convolutional Generative Adversarial Networks,深度卷积生成对抗网络)是一种在生成对抗网络(GAN)框架下,利用深度卷积神经网络进行图像生成的模型。DCGAN通过引入卷积层来改进GAN的结构,使得生成器和判别器都使用卷积神经网络,从而能够更好地捕捉图像的空间层次特征,生成更高质量的图像。
2024-07-10 16:02:34
1888
原创 《昇思25天学习打卡营第16天|CycleGAN图像风格迁移互换》
CycleGAN(循环一致性生成对抗网络)是一种强大的深度学习模型,专门用于实现无配对数据集的图像到图像的转换。与传统的GAN(生成对抗网络)不同,CycleGAN引入了循环一致性损失(cycle consistency loss),这使得模型能够在没有成对训练样本的情况下学习两种不同域之间的映射。
2024-07-10 15:41:22
900
原创 《昇思25天学习打卡营第15天|Vision Transformer图像分类》
Vision Transformer (ViT)是一种基于Transformer架构的深度学习模型,基于Transformer架构,ViT可以方便地与其他NLP任务共享模型架构和训练技巧,并且可以轻松扩展到大规模数据集获取出色的效果。但ViT模型通常需要大量的计算资源和数据进行训练,而且在较小数据集上的表现不如预期。
2024-07-08 11:33:40
968
原创 《昇思25天学习打卡营第14天|SSD目标检测》
SSD(Single Shot MultiBox Detector)是一种高效的目标检测网络模型,它在2016年由Wei Liu等人提出。SSD的网络结构通常基于一个预训练的卷积神经网络(如VGG16),并在其基础上添加额外的卷积层来生成多尺度的特征图。这使得模型在速度和准确性之间取得了很好的平衡,尤其在实时目标检测任务中表现出色。它在多个基准数据集(如PASCAL VOC、COCO等)上取得了领先的结果。
2024-07-06 11:50:36
1988
原创 《昇思25天学习打卡营第13天|ShuffleNet图像分类》
ShuffleNet是一种轻量级的卷积神经网络(CNN)架构,专门为移动设备和嵌入式设备设计,以实现高效的图像分类和其他计算机视觉任务。ShuffleNet的核心创新在于引入了两个关键的操作:分组卷积(Group Convolution)和通道重排(Channel Shuffle)。有效地减少了计算量和内存使用,同时保持了较高的模型性能。它不仅在图像分类任务中取得了很好的效果,还被广泛应用于目标检测、语义分割等其他计算机视觉任务。
2024-07-06 11:27:06
770
原创 《昇思25天学习打卡营第12天|ResNet50图像分类》
ResNet50是一种深度卷积神经网络(CNN),属于ResNet(残差网络)系列。它是一个高效且功能强大的深度学习模型,广泛应用于各种计算机视觉任务。
2024-07-05 17:31:55
766
原创 《昇思25天学习打卡营第11天|ResNet50迁移学习》
迁移学习是一种在深度学习领域中广泛使用的技术,它允许模型在大规模训练集上学习到的特征迁移应用到另一个相关任务上,可以在许多情况下提高深度学习模型的效率和性能,但也需要谨慎选择和应用,以避免潜在的问题。
2024-07-05 17:00:30
904
原创 《昇思25天学习打卡营第10天|FCN图像语义分割》
FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。FCN的核心贡献在于提出使用全卷积层,通过学习让图片实现端到端分割。与传统使用CNN进行图像分割的方法相比,FCN有两大明显的优点:一是可以接受任意大小的输入图像,无需要求所有的训练图像和测试图像具有固定的尺寸。
2024-07-03 15:57:00
895
原创 《昇思25天学习打卡营第9天|使用静态图加速》
1. 动态图的特点是计算图的构建和计算同时发生,在调试模型时非常方便,能够实时得到中间结果的值。所以在调试过程中,推荐使用动态图模式进行调试。2. 在Graph模式下,Python代码并不是由Python解释器去执行,而是将代码编译成静态计算图,然后执行静态计算图。因此,编译器无法支持全量的Python语法。所以在编写及调试模型的时候,需要注意op的使用和实现。3. 使用静态图编程技巧可以有效地提高编译效率以及执行效率,并可以使程序运行的更加稳定;使用动态图编程模式可以灵活的进行设计和调试。
2024-07-02 10:06:23
2033
原创 《昇思25天学习打卡营第8天|保存与加载》
在训练网络模型的过程中,经常会需要保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署。
2024-07-01 18:01:42
558
原创 《昇思25天学习打卡营第7天|模型训练》
详细介绍了模型训练的四个主要步骤:构建数据集、定义神经网络模型、定义超参数、损失函数和优化器,以及进行训练与评估。
2024-07-01 15:48:08
825
原创 《昇思25天学习打卡营第6天|函数式自动微分》
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。
2024-07-01 10:18:44
701
原创 《昇思25天学习打卡营第5天|数据变换 Transforms》
对数据变换 Transforms的使用学习后,更深入地理解了如何使用MindSpore框架来高效地处理和准备深度学习模型所需的数据。通过自定义数据变换,可以根据自己的需求来构建和优化数据处理流程,这对于处理特定类型的数据或实验设置非常有用。数据变换操作可以有助于更好地设计实验,通过不同的数据增强方法来提高模型的泛化能力。
2024-06-28 14:26:25
939
原创 《昇思25天学习打卡营第4天|数据集 Dataset》
对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集。数据集是深度学习研究的基石。了解在MindSpore框架下,如何有效地加载、处理和迭代数据集对于模型训练至关重要。MindSpore的数据集模块提供了一系列工具,用于加载数据、进行数据变换和预处理,对于数据集的处理非常便捷、灵活。
2024-06-27 14:23:02
848
原创 《昇思25天学习打卡营第3天|张量 Tensor》
认识MindSpore的张量Tensor,了解Tensor的结构和用法。张量是一种特殊的数据结构,与数组和矩阵非常相似。张量()是MindSpore网络运算中的基本数据结构。
2024-06-26 15:23:03
425
原创 《昇思25天学习打卡营第1天|基本介绍》
昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。昇腾计算,是基于昇腾系列处理器构建的全栈AI计算基础设施及应用,包括昇腾Ascend系列芯片、Atlas系列硬件、CANN芯片使能、MindSpore AI框架、ModelArts、MindX应用使能等。
2024-06-24 18:55:40
254
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅