自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 隐语隐私计算实训营「数据分析」第 5 课:隐语PSI介绍及开发实践

隐私集合求交(Private Set Intersection, PSI)是隐私计算中的一个重要技术,它允许多方在不泄露自己数据的前提下找出共同的数据交集。在本文中,我们将深入探讨SecretFlow(隐语)中PSI的实现和应用。

2024-08-16 16:05:00 1265

原创 隐语隐私计算实训营「联邦学习」第 5 课:基于隐私保护的机器学习算法介绍

【隐私计算实训营】是蚂蚁集团隐语开源社区出品的线上课程,自实训营上线以来,获得行业内外广泛关注,吸引上千余名开发者报名参与。本次暑期夏令营课程中,除了最新上线的「联邦学习系列」,还包含了「隐私保护数据分析」和「隐私保护机器学习」,主题,小伙伴们可以根据需求自由选择报名期待和大家共同探索隐私计算的前沿技术!

2024-07-21 20:44:23 1586

原创 隐语隐私计算实训营「联邦学习」第 4 课:SecretFlow与Secretnote的安装部署

SecretFlow是一个隐私计算框架,用于安全地进行多方数据分析和机器学习。它支持多种部署模式,可以满足从快速验证到安全生产的不同需求。

2024-07-20 10:47:59 1088

原创 隐语隐私计算实训营「联邦学习」第 3 课:隐语架构概览

隐语架构的设计理念是"清晰分层,灵活集成,简单易用"。平台集成者可以通过API/SDK集成隐语功能算法使用者可以利用隐语的AI&BI算法能力协议使用者可以使用隐语的底层密码和协议能力产品使用者可以通过白屏产品快速体验隐语能力隐语的开放架构和丰富功能使其成为一个强大而灵活的隐私计算平台,能够满足各种隐私计算需求。

2024-07-19 20:56:39 1618

原创 【MindSpore学习打卡】应用实践-LLM原理和实践-文本解码原理 —— 以MindNLP为例

文本生成在自然语言处理(NLP)中具有重要地位,广泛应用于对话系统、文本补全等任务。本文将探讨自回归语言模型的文本解码原理,使用MindNLP工具进行示例演示,重点分析不同解码方法的优缺点及其实现。

2024-07-19 16:39:34 975

原创 隐语隐私计算实训营「联邦学习」第 2 课:隐私计算开源助力数据要素流通

【隐私计算实训营】是蚂蚁集团隐语开源社区出品的线上课程,自实训营上线以来,获得行业内外广泛关注,吸引上千余名开发者报名参与。本次暑期夏令营课程中,除了最新上线的「联邦学习系列」,还包含了「隐私保护数据分析」和「隐私保护机器学习」,主题,小伙伴们可以根据需求自由选择报名期待和大家共同探索隐私计算的前沿技术!

2024-07-19 15:32:54 1208

原创 隐语隐私计算实训营「联邦学习」第 1 课:数据可信流通:从运维信任到技术信任

重构技术信任体系是数据要素可信流通的关键需要全面考虑身份确认、利益依赖、能力预期和行为后果未来需要构建安全可信的基础设施,支撑数据密态流转启示:数据可信流通不仅是技术问题,更是一个涉及多方利益、法律法规和社会治理的复杂系统工程。

2024-07-18 22:33:51 781

原创 【MindSpore学习打卡】应用实践-LLM原理和实践-基于MindSpore实现BERT对话情绪识别

BERT(Bidirectional Encoder Representations from Transformers)是一种基于Transformer的双向编码器表征模型。它主要通过两种预训练任务来捕捉词语和句子级别的表征:Masked Language Model(MLM)和Next Sentence Prediction(NSP)。:随机将语料库中15%的单词进行掩码操作,模型需要预测这些被掩码的单词。:模型需要预测两个句子之间是否存在顺序关系。

2024-07-10 19:19:58 3131

原创 【MindSpore学习打卡】应用实践-热门LLM及其他AI应用-使用MindSpore实现K近邻算法对红酒数据集进行聚类分析

KNN算法的实现依赖于样本之间的距离,最常用的距离函数是欧氏距离。公式如下:2}} ]为了减少特征值尺度范围不同带来的干扰,使用欧氏距离时应将特征向量的每个分量归一化。

2024-07-09 20:20:53 1399

原创 【MindSpore学习打卡】应用实践-自然语言处理-深入理解LSTM+CRF在序列标注中的应用

CRF是一种概率图模型,适用于捕获序列中相邻Token之间的依赖关系。设xx0xnxx0​...xn​为输入序列,yy0ynyy0​...yn​为输出的标注序列,其中nnn为序列的最大长度。则输出序列yyyPy∣xexp⁡Scorexy∑y′∈Yexp⁡Scorexy′Py∣x∑y′∈Y​expScorexy′expScorexy​其中,Scorexy。

2024-07-08 20:01:43 1251

原创 【MindSpore学习打卡】应用实践-自然语言处理-基于RNN的情感分类:使用MindSpore实现IMDB影评分类

设计一个预测函数,实现对自定义输入的情感预测。通过本文的学习,我们成功地使用MindSpore框架实现了一个基于RNN的情感分类模型。我们从数据准备开始,详细讲解了如何加载和处理IMDB影评数据集,以及使用预训练的Glove词向量对文本进行编码。然后,我们构建了一个包含Embedding层、LSTM层和全连接层的情感分类模型,并使用二分类交叉熵损失函数和Adam优化器进行训练。最后,我们评估了模型在测试集上的性能,并实现了对自定义输入的情感预测。

2024-07-06 19:58:35 1310 1

原创 【MindSpore学习打卡】应用实践-计算机视觉-深入解析 Vision Transformer(ViT):从原理到实践

在近年来的深度学习领域,Transformer模型凭借其在自然语言处理(NLP)中的卓越表现,迅速成为研究热点。尤其是基于自注意力(Self-Attention)机制的模型,更是推动了NLP的飞速发展。然而,随着研究的深入,Transformer模型不仅在NLP领域大放异彩,还被引入到计算机视觉领域,形成了Vision Transformer(ViT)。ViT模型在不依赖传统卷积神经网络(CNN)的情况下,依然能够在图像分类任务中取得优异的效果。

2024-07-05 22:53:13 1263

原创 【MindSpore学习打卡】应用实践-计算机视觉-SSD目标检测:从理论到实现

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。SSD的核心思想是通过单阶段的卷积神经网络直接预测目标的类别和位置,而无需像two-stage方法(如RCNN系列)那样生成候选框。SSD在多个特征层上进行检测,能够实现多尺度的目标检测,具体如图所示:SSD采用VGG16作为基础模型,并在其之上新增了卷积层来获得更多的特征图用于检测。相比于YOLO,SSD利用了多尺度特征图进行检测,检测效果更加全面。

2024-07-04 18:09:18 1290

原创 【MindSpore学习打卡】应用实践-计算机视觉-ShuffleNet图像分类:从理论到实践

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,主要应用在移动端。其设计核心在于引入了两种操作:Pointwise Group Convolution和Channel Shuffle。这些操作在保持精度的同时,大大降低了模型的计算量。

2024-07-02 14:39:01 2652

原创 【MindSpore学习打卡】应用实践-计算机视觉-ResNet50迁移学习-从ImageNet到狼狗分类

为什么使用迁移学习?- 数据不足:在实际应用中,获取大量标注数据集往往是困难的。迁移学习通过在大型数据集上预训练模型,然后将其应用到特定任务上,可以有效解决数据不足的问题。- 节省时间和计算资源:从头开始训练一个深度神经网络需要大量的计算资源和时间,而迁移学习可以通过使用预训练模型,大大减少训练时间和计算量。为什么要进行数据增强?- 提高模型泛化能力:数据增强通过对训练数据进行随机变换(如裁剪、翻转等),可以生成更多的训练样本,帮助模型更好地泛化到未见过的数据。- 防止过拟合:数据增强可以增加数据的

2024-06-30 19:48:23 1076

原创 【MindSpore学习打卡】应用实践-计算机视觉-ResNet50图像分类-基于MindSpore实现ResNet50的模型图像分类

ResNet50网络是由微软研究院的何恺明等人在2015年提出的,并在ILSVRC2015图像分类竞赛中获得了第一名。在ResNet提出之前,传统的卷积神经网络依赖于层层堆叠的卷积层和池化层,但当网络深度增加时,会出现退化问题。如下图所示,在CIFAR-10数据集上,56层网络的训练误差和测试误差比20层网络更大,说明网络深度增加并未带来预期的性能提升。ResNet通过引入残差网络结构(Residual Network)有效地减轻了退化问题,使得网络深度可以突破1000层。

2024-06-29 13:58:26 1496

原创 【MindSpore学习打卡】应用实践-计算机视觉-FCN图像语义分割-基于MindSpore实现FCN-8s进行图像语义分割的教程

语义分割(semantic segmentation)是图像处理和机器视觉技术中关于图像理解的重要一环,常被应用于人脸识别、物体检测、医学影像、卫星图像分析、自动驾驶感知等领域。语义分割的目的是对图像中每个像素点进行分类。与普通的分类任务只输出某个类别不同,语义分割任务输出与输入大小相同的图像,输出图像的每个像素对应了输入图像每个像素的类别。FCN主要用于图像分割领域,是一种端到端的分割方法。通过进行像素级的预测直接得出与原图大小相等的label map。

2024-06-28 11:22:38 1151

原创 【MindSpore学习打卡】初学教程-09使用静态图加速-使用静态图加速你的MindSpore模型

动态图模式的特点是计算图的构建和计算同时发生(Define by run)。这种模式下,代码的执行方式类似于Python的解释执行,能够实时得到中间结果,非常适合模型调试。ms.set_context(mode=ms.PYNATIVE_MODE) # 设置为动态图模式nn.ReLU(),nn.ReLU(),

2024-06-26 11:07:11 764

原创 【MindSpore学习打卡】初学教程-08模型训练-使用MindSpore进行深度学习模型训练

接下来,我们需要定义一个简单的神经网络模型。在这里,我们使用一个包含全连接层和ReLU激活函数的网络。全连接层能够有效地提取数据的特征,而ReLU激活函数可以引入非线性特征,使得模型能够学习更复杂的模式。nn.ReLU(),nn.ReLU(),超参是控制模型训练过程的参数,包括训练轮次、批次大小和学习率。这些参数直接影响模型的训练过程和最终性能。合理的超参数设置可以加速模型的收敛,提高训练效率。epochs = 3。

2024-06-25 10:27:26 624

原创 【MindSpore学习打卡】初学教程-07函数式自动微分-探索MindSpore中的函数式自动微分

在深度学习中,神经网络的训练主要依赖于反向传播算法,通过计算模型预测值与正确标签的差异,来调整模型参数以优化性能。自动微分能够自动计算函数在某点处的导数值,大大简化了反向传播的实现过程。本文将通过一个简单的教程,介绍如何在MindSpore中使用函数式自动微分,并探讨其在神经网络训练中的应用。

2024-06-24 11:23:25 1168

原创 【MindSpore学习打卡】初学教程-06网络构建-使用MindSpore构建神经网络模型

在MindSpore中,所有的神经网络模型都是通过继承nn.Cell类来定义的。在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。nn.ReLU(),nn.ReLU(),通过继承nn.Cell类,我们可以利用面向对象编程的思想来构建和管理神经网络模型,这使得代码更具可读性和可维护性。通过本文的详细讲解,我们从零开始构建了一个用于Mnist数据集分类的神经网络模型,并深入解析了模型中的每一层。

2024-06-23 15:58:31 939

原创 【MindSpore学习打卡】初学教程-05数据变化 Transforms-使用MindSpore进行数据变换

MindSpore的模块提供了一系列面向图像、文本、音频等不同数据类型的Transforms。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。

2024-06-22 15:39:46 855

原创 【MindSpore学习打卡】初学教程-04数据集 Dataset-使用MindSpore实现高效数据加载与预处理

对于一些特殊的数据集,可能无法直接使用 MindSpore 提供的内置加载接口。这时候,构造自定义数据加载类或生成函数,可以灵活地处理各种数据格式和数据源,满足不同的应用需求。通过接口,可以方便地将自定义的数据集加载到 MindSpore 中进行处理和训练。

2024-06-21 20:54:25 2294

原创 【MindSpore学习打卡】初学教程-03张量Tensor-理解MindSpore中的张量(Tensor)操作

张量是一种多维数组,可以表示标量、向量、矩阵以及更高维度的数据结构。张量的秩(rank)表示其维度的数量。例如,标量是0阶张量,向量是1阶张量,矩阵是2阶张量。张量(Tensor)是深度学习中最基本的数据结构之一,它可以表示标量、向量、矩阵甚至更高维度的数据。在MindSpore中,张量是网络运算的基本单位。

2024-06-20 16:22:49 1264

原创 【MindSpore学习打卡】初学教程-02快速入门-使用MindSpore构建和训练深度学习模型

使用交叉熵损失函数。

2024-06-19 20:38:37 1712 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除