
深度学习
文章平均质量分 86
探索深度学习的各个流程,即常见模型网络介绍
1 + 1=王
优快云博客专家;
优快云优质创作者;
阿里云社区专家博主;
华为云云享专家;
51CTO专家博主;
热爱JAVA的计算机科学与技术(人工智能)研究生在读;
全国大学生计算机设计大赛国家二等奖;
三维数字化创新设计大赛四川省特等奖、国家三等奖;
蓝桥杯全国软件与信息技术专业人才大赛三等奖;
MathorCup数学建模挑战赛三等奖.
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
图像分割(Segmentation)
Cit yscapes 是驾驶领域进行效果和性能测试的图像分割数据集,它包含了5000张精细标注的图像和20000张粗略标注的图像,这些图像包含50个城市的不同场景、不同背景、不同街景,以及30类涵盖地面、建筑、交通标志、自然、天空、人和车辆等的物体标注。在解码器处,执行上采样和卷积。像,采用反卷积层对最后一个卷积层的f eat ure map进行上采样, 使它恢复到输入图像相同的尺寸,从而可以对每个像素都产生了一个预测, 同时保留了原始输入图像中的空间信息, 最后在上采样的特征图上进行逐像素分类。原创 2023-04-21 08:58:08 · 3364 阅读 · 57 评论 -
目标检测【Object Detection】
对于目标检测任务来说,COCO数据集中的80类是完全足够的。Mask R-CNN是对Faster R-CNN的直观扩展,网络的主干有RPN转换为主干网络为ResNet的特征金字塔网络(FPN),同时添加了一个分支用于预测每个感兴趣区域(RoI)上的分割掩模,与现有的用于分类和边界盒回归的分支并行。在多个特征图上设置不同缩放比例和不同宽高比的先验框以融合多尺度特征图进行检测,靠前的大尺度特征图可以捕捉到小物体的信息,而靠后的小尺度特征图能捕捉到大物体的信息,从而提高检测的准确性和定位的准确性。原创 2023-04-13 20:07:54 · 8379 阅读 · 58 评论 -
使用PyG(PyTorch Geometric)实现基于图卷积神经网络(GCN)的节点分类任务
PyG(PyTorch Geometric)是一个基于PyTorch的库,可以轻松编写和训练图神经网络(GNN),用于与结构化数据相关的广泛应用。它包括从各种已发表的论文中对图和其他不规则结构进行深度学习的各种方法,也称为几何深度学习。此外,它还包括易于使用的迷你批处理加载程序,用于在许多小型和单巨型图上操作,多GPU支持,大量通用基准数据集(基于创建自己的简单接口),GraphGym实验管理器,以及有用的转换,既用于在任意图上学习,也用于在3D网格或点云上学习。原创 2023-04-06 19:58:37 · 7917 阅读 · 54 评论 -
【联邦学习(Federated Learning)】- 横向联邦学习与联邦平均FedAvg
横向联邦学习也称为按样本划分的联邦学习,可以应用于联邦学习的各个参与方的数据集有相同的特征空间和不同的样本空间的场景,类似于在表格视图中对数据进行水平划分的情况。例如,两个地区的城市商业银行可能在各自的地区拥有非常不同的客户群体,所以他们的客户交集非常小,他们的数据集有不同的样本ID。然而,他们的业务模型非常相似,因此他们的数据集的特征空间是相同的。这两家银行可以联合起来进行横向联邦学习以构建更好的风控模型。原创 2023-03-30 19:09:50 · 6217 阅读 · 28 评论 -
【联邦学习(Federated Learning)】- 从基本分布式思想开始理解联邦学习
机器学习和人工智能的成功离不开大量的数据,但随着人工智能在各行各业的应用落地,人们对于用户隐私数据保安全的关注度也在不断提高。如何在遵守更加严格的、新的隐私保护条例的前提下,解决数据碎片化和数据隔离的问题,是当前人工智能研究者必须解决的问题。在以上的背景基础下,人们开始寻求一种不必将所有数据集中到一个中心存储点就能够训练机器学习模型的方法。联邦学习旨在建立一个基于分布数据集的联邦学习模型。原创 2023-03-24 12:01:39 · 7283 阅读 · 70 评论 -
Adam优化器算法详解及代码实现
在随机(小批量)梯度下降法中,如果每次选取样本数量比较小,损失会呈现振荡的方式下降.也就是说,随机梯度下降方法中每次迭代的梯度估计和整个训练集上的最优梯度并不一致,具有一定的随机性。一种有效地缓解梯度估计随机性的方式是通过使用最近一段时间内的平均梯度来代替当前时刻的随机梯度来作为参数更新的方向,从而提高优化速度。在标准的梯度下降法中,每个参数在每次迭代时都使用相同的学习率,但是学习率如果过大就不会收敛,如果过小则收敛速度太慢。其中, 𝛼 是初始的学习率,𝜖 是为了保持数值稳定性而设置的非常小的常数。原创 2023-03-17 19:43:09 · 24547 阅读 · 35 评论 -
python安装pyg(pytorch_geometric)的两种方式
【代码】python安装pyg(pytorch_geometric)的两种方式。原创 2023-02-11 19:23:54 · 2380 阅读 · 5 评论 -
【图神经网络】 - GNN的几个模型及论文解析(NN4G、GAT、GCN)
本文提出了一种利用构造性神经网络( NN4G )学习结构化领域( SD )的新方法。新模型允许将有监督神经网络的输入域扩展到包括无环/循环、有向/无向标记图的一般图类。特别地,该模型可以实现自适应的上下文转换,从图中学习分类和回归任务的映射。与以往针对具有递归动态结构的神经网络不同,NN4G基于具有状态变量的构造性前馈架构,使用无反馈连接的神经元。通过一个通用的遍历过程将神经元应用到输入图中,该过程放松了先前基于因果关系假设分层输入数据得到的方法的约束。原创 2022-09-23 08:02:14 · 17217 阅读 · 166 评论 -
pytorch创建自己的Dataset加载数据集
创建__getitem__方法加载数据集如果不知道如何将文件夹中所有图片名称写入TXT中可以参考:python读取文件夹中的所有图片并将图片名逐行写入txt中:https://blog.youkuaiyun.com/weixin_43598687/article/details/125666776?spm=1001.2014.3001.5501...原创 2022-07-09 19:15:00 · 5278 阅读 · 5 评论 -
卷积神经网络模型之——GoogLeNet网络结构与代码实现
GoogLeNet原文地址:Going Deeper with Convolutions:https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdfGoogLeNet在2014年由Christian Szegedy提出,它是一种全新的深度学习结构。GoogLeNet网络的主要创新点在于:提出Inception结构在多个尺寸上同时进行卷积再聚合;原创 2022-07-22 07:30:00 · 8270 阅读 · 58 评论 -
卷积神经网络模型之——VGG-16网络结构与代码实现
VGG原文:Very deep convolutional networks for large-scale image recognition:https://arxiv.org/pdf/1409.1556.pdfVGG在2014年由牛津大学Visual GeometryGroup提出,获得该年lmageNet竞赛中Localization Task(定位任务)第一名和 Classification Task (分类任务)第二名。VGG与AlexNet相比,它采用几个连续的3x3的卷积核代替AlexNe原创 2022-07-18 18:50:53 · 9969 阅读 · 60 评论 -
深度学习的训练、预测过程详解【以LeNet模型和CIFAR10数据集为例】
Lenet是一个 7 层的神经网络(不包含输入层),包含 3 个卷积层,2 个池化层,2 个全连接层。使用pytorch搭建如下:下载地址:https://tensorflow.google.cn/datasets/catalog/cifar10CIFAR10数据集共有60000张彩色图像,其中50000张用于训练,5个训练批,每一批10000张图;10000张用于测试。图片大小为3X32X32,分为10个类别,每个类6000张。对于模型的训练可以分为一下几个步骤:下面就结合代码进行详细分析:..原创 2022-07-08 07:15:00 · 6011 阅读 · 54 评论 -
卷积神经网络模型之——AlexNet网络结构与代码实现
AlexNet原文地址:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdfAlexNet诞生于2012年,由2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的。AlexNet的贡献点:首次使用GPU加速网络训练使用ReLU激活函数,代替不是传统的Sigmoid和Tanh,解决了Sigmoid的梯度消失问题,使收敛更快。训练时使用原创 2022-07-11 20:02:53 · 8965 阅读 · 72 评论 -
卷积神经网络模型之——LeNet网络结构与代码实现
LeNet原文地址:https://ieeexplore.ieee.org/abstract/document/726791LeNet可以说是卷积神经网络的“HelloWorld”,它通过巧妙的设计,利用卷积、池化等操作提取特征,再使用全连接神经网络进行分类。Lenet是一个 7 层的神经网络(不包含输入层),包含 3 个卷积层,2 个池化层,2 个全连接层。它的网络结构图如下所示:第0层:输入输入的原始图像大小是32×32像素的3通道图像。C1是一个卷积层,卷积核大小为5,输入大小为3X32X32,原创 2022-07-04 21:03:00 · 4866 阅读 · 66 评论