- 博客(30)
- 收藏
- 关注
原创 书生大模型实战营(第三期):入门岛打卡,Linux 基础知识及python测试
InternStudio 是大模型时代下的云端算力平台。基于 InternLM 组织下的诸多算法库支持,为开发者提供开箱即用的大语言模型微调环境、工具、数据集,并完美兼容 🤗 HugginFace 开源生态。首先打开上面的链接进入InternStudio,完成登录会自动跳转到控制台界面,如下图所示:InternStudio中可以创建,以及修改开发机配置和查看相关日志等,方便用户根据自身情况来选择开发模式,如图所示。
2024-07-17 14:19:12
628
原创 昇思25天学习打卡营第8天 | 模型保存与加载
多数情况下,考虑到GPU消费及服务器会发生故障,以及开源方便其他人使用预训练,需要对模型及相关参数进行封装,方便后续再次训练及其他人基于目的来训练模型,mindspore框架提供多种模式方便存储模型结构和参数,方法部分跟pytorch框架类似,所以学习pytorch和mindspore框架的成本较低,相互通用性较高。
2024-07-16 19:13:21
260
原创 昇思25天学习打卡营第8天 | 模型训练
从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下:𝑤𝑡+1=𝑤𝑡−𝜂1𝑛∑𝑥∈∇𝑙(𝑥,𝑤𝑡)公式中,𝑛是批量大小(batch size),η是学习率(learning rate)。另外,𝑤𝑡为训练轮次𝑡中的权重参数,∇𝑙为损失函数的导数。
2024-07-16 18:42:48
857
原创 昇思25天学习打卡营第8天 | 网络构建
当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建,相关内容详见使用静态图加速。nn.ReLU(),nn.ReLU(),构建完成后,实例化Network对象,并查看其结构。我们构造一个输入数据,直接调用模型,可以获得一个十维的Tensor输出,其包含每个类别的原始预测值。方法不可直接调用。logits在此基础上,我们通过一个nn.Softmax。
2024-07-16 18:14:24
472
原创 昇思25天学习打卡营第8天 | 基于MobileNetv2的垃圾分类¶
MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。
2024-07-16 15:10:23
1092
原创 昇思25天学习打卡营第8天 | K近邻算法实现红酒聚类
K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。
2024-07-16 14:14:27
779
原创 昇思25天学习打卡营第8天 | 基于MindNLP+MusicGen生成自己的个性化音乐
MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《MusicGen直接使用谷歌的及其权重作为文本编码器模型,并使用及其权重作为音频压缩模型。MusicGen解码器是一个语言模型架构,针对音乐生成任务从零开始进行训练。MusicGen 模型的新颖之处在于音频代码的预测方式。
2024-07-16 13:42:57
868
原创 昇思25天学习打卡营第7天 | MindNLP ChatGLM-6B StreamChat
本案例基于MindNLP和ChatGLM-6B实现一个聊天应用。
2024-07-14 16:02:08
317
原创 昇思25天学习打卡营第7天 | 文本解码原理--以MindNLP为例
Beam search通过在每个时间步保留最可能的 num_beams 个词,并从中最终选择出概率最高的序列来降低丢失潜在的高概率序列的风险。缺点: 错过了隐藏在低概率词后面的高概率词,如:dog=0.5, has=0.9!文本解码原理是现在训练bert及后续大语言模型的基础,基于对输入来预测输出,即一个文本序列的概率分布可以分解为每个词基于其上文的条件概率的乘积。选出概率最大的 K 个词,重新归一化,最后在归一化后的 K 个词中采样。2. 开放域生成效果差。增加高概率单词的似然并降低低概率单词的似然。
2024-07-14 14:54:35
800
原创 昇思25天学习打卡营第7天 | 基于MindSpore通过GPT实现情感分类
基于gpt来实现文本的情感分类,相较于rnn,lstm等模型的训练方式,在基础之上加入了词向量,考虑到gpt模型体积较大,多数情况下词向量用的是bert的已经训练好的词向量。
2024-07-14 11:24:03
239
原创 昇思25天学习打卡营第6天 | 基于 MindSpore 实现 BERT 对话情绪识别
BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构,因此一定要熟练掌握Transformer的Encoder的结构。
2024-07-13 19:59:58
1159
原创 昇思25天学习打卡营第6天 | Diffusion扩散模型
如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程 𝑞:它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声一个学习的反向去噪的扩散过程 𝑝𝜃:通过训练神经网络从纯噪声开始逐渐对图像去噪,直到最终得到一个实际的图像。
2024-07-13 19:03:54
1088
原创 昇思25天学习打卡营第5天 | CycleGAN图像风格迁移互换
CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络相较于GAN模型和Pix2Pix 模型的训练方式,cycleGan基于对图像对的变换识别来训练相关参数。
2024-07-10 14:14:22
686
原创 昇思25天学习打卡营第5天 | DCGAN生成漫画头像
输入是3x64x64的图像,输出是该图像为真图像的概率。按照Goodfellow的方法,是希望通过提高其随机梯度来更新判别器,所以我们要最大化𝑙𝑜𝑔𝐷(𝑥)+𝑙𝑜𝑔(1−𝐷(𝐺(𝑧))DCGAN论文提到,使用卷积而不是通过池化来进行下采样是一个好方法,因为它可以让网络学习自己的池化特征。循环训练网络,每经过50次迭代,就收集生成器和判别器的损失,以便于后面绘制训练过程中损失函数的图像。在这两个部分中,分别获取训练过程中的损失,并在每个周期结束时进行统计,将。,输出是3x64x64的RGB图像。
2024-07-10 12:37:37
581
原创 昇思25天学习打卡营第4天 | GAN图像生成
MNIST手写数字数据集是NIST数据集的子集,共有70000张手写数字图片,包含60000张训练样本和10000张测试样本,数字图片为二进制文件,图片大小为28*28,单通道。图片已经预先进行了尺寸归一化和中心化处理。本案例将使用MNIST手写数字数据集来训练一个生成式对抗网络,使用该网络模拟生成手写数字图片。
2024-07-07 19:48:29
661
原创 昇思25天学习打卡营第4天 | Pix2Pix实现图像转换
Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来处理的。
2024-07-07 19:12:52
807
原创 昇思25天学习打卡营第4天 | LSTM+CRF序列标注
本次打卡介绍bilstm+crf序列标注模型,此类模型多数用于识别文本中的序列,序列标注通常用于识别出文本中分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等特点信息,其中crf算法中包含3个部分,score计算,normalizerf计算,viterbi计算,现有的常用序列标注模型通常基于rnn/lstm+crf模型。
2024-07-07 09:31:18
912
原创 昇思25天学习打卡营第3天 | SSD目标检测
keep = []breakres = {}"""""""""else:else:else:lr = 0.0opt(grads)训练及测试结果总结。
2024-07-06 19:17:18
540
原创 昇思25天学习打卡营第3天 | FCN图像语义分割
FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。
2024-07-06 16:48:49
646
原创 昇思25天学习打卡营第3天 | Vision Transformer图像分类
本次打卡基于vit图像分类模型,相对于CNN架构,vit模型基于transfomer结构结合cnn,提升图像分类精度,但是由于transformer中attention模块计算度复杂,导致计算效率没有cnn架构快,这也是后续对transformer结构优化的方向之一。
2024-07-06 09:06:35
1019
原创 昇思25天学习打卡营第3天 | ShuffleNet图像分类
本次教程是基于轻量化模型来训练一个图像识别深度学习模型,shufflent模型作为轻量化模型的代表,其他的轻量化模型也可以考虑mobilenet,ghostnet等,如果考虑模型性能,也可以使用一个resnet50模型结合量化技术来获得一个精度和推理性能相对较好的图像分类模型。
2024-07-06 07:57:52
682
原创 昇思25天学习打卡营第2天 | 基于ResNet50的图像分类迁移学习
本次打卡基于resnet50的迁移学习方法来构建2分类的图像识别模型,流程包含图像数据预处理,数据集划分,模型构建,预训练参数加载,模型训练,其中本次打卡中展现的预训练参数加载方式相对比较复杂,方便展示整个模型的结构,实际多数的迁移学习方式多数基于加载库中模型接口的方式,可以参考官方文档。
2024-07-05 15:06:01
266
原创 昇思25天学习打卡营第2天 | ResNet50图像分类
ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。
2024-07-05 10:52:47
840
原创 Llama 3 五一超级课堂中实践llama3的部署,微调,量化优化部署学习总结:第三部分LMDeploy部署llama3-8b模型及量化策略
本次学习分享基于Llama3-Tutorial(Llama 3 超级课堂)分享,git地址如下llama3-8b对话模型部署。
2024-05-11 09:45:12
1167
原创 Llama 3 五一超级课堂中实践llama3的部署,微调,量化优化部署学习总结:第二部分基于自我认知数据,使用XTuner 微调 Llama3-8b模型
本次学习分享基于Llama3-Tutorial(Llama 3 超级课堂)分享,git地址如下llama3-8b对话模型部署。
2024-05-11 08:05:20
806
原创 Llama 3 五一超级课堂中实践llama3的部署,微调,量化优化部署学习总结:第一部分llama3部署
本次学习分享基于Llama3-Tutorial(Llama 3 超级课堂)分享,git地址如下llama3-8b对话模型部署。
2024-05-11 02:57:08
1000
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人