深度学习
文章平均质量分 73
comedate
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【深度学习】cudnn.benchmark 参数说明
摘要:cudnn.benchmark参数用于自动优化卷积算法,当输入尺寸固定时可显著加速训练。推荐在固定输入尺寸任务中开启,但在可变尺寸训练或需要确定性结果时应关闭。该参数与显存占用和速度相关,与deterministic参数互斥。最佳实践是根据输入尺寸稳定性和显存情况选择开启或关闭,固定尺寸且非确定性需求时建议开启以提升性能。原创 2025-07-05 12:01:18 · 429 阅读 · 0 评论 -
【深度学习】 深度学习训练配置参数详解
本文详细介绍了深度学习训练中的关键配置参数,主要包括9个方面:1)启动初始化参数(GPU设置、随机种子等);2)数据预处理参数(重采样、裁剪等);3)数据增强策略(弹性变形、噪声等);4)数据加载设置;5)模型配置;6)优化器选择;7)学习率调度;8)损失函数与评估指标;9)训练控制参数。重点强调了医学图像分割任务中数据预处理、类别不平衡处理(通过class_weight参数)和训练可重复性(deterministic=True)的重要性。所有参数需根据具体数据集和硬件环境进行调整优化。原创 2025-07-05 11:57:27 · 1020 阅读 · 0 评论 -
【GPU】使用 pytorch 检测 CUDA 安装是否成功
使用 pytorch 检测 CUDA 安装是否成功原创 2025-04-29 22:49:34 · 188 阅读 · 0 评论 -
【论文共读】A unique AI-based tool for automated segmentation of pulp cavity structures in maxillary premo
开发和验证一种人工智能 (AI) 驱动的工具,用于在锥形束计算机断层扫描 (CBCT) 上自动分割上颌前磨牙的牙髓腔结构。将 111 个 CBCT 扫描分为训练 (n = 55)、验证 (n = 14) 和测试 (n = 42) 组,手动分割作为基本事实。AI 工具自动分割测试数据集,由作员纠正错误以创建精细的 3D (R-AI) 模型。通过比较 AI 和 R-AI 模型来评估整体 AI 性能,并手动分割 30% 的测试样本以比较 AI 和人类的性能。每种方法的时间效率以秒 (s) 为单位记录。原创 2025-04-12 17:52:44 · 1066 阅读 · 0 评论 -
[医疗 AI ] 3D TransUNet:通过 Vision Transformer 推进医学图像分割
医学图像分割在推进医疗保健系统的疾病诊断和治疗计划中起着至关重要的作用。U 形架构,俗称 U-Net,已被证明在各种医学图像分割任务中非常成功。然而,U-Net 基于卷积的操作本身限制了其有效建模远程依赖关系的能力。为了解决这些限制,研究人员转向了以其全局自我注意机制而闻名的 Transformer 作为替代架构。一个流行的网络是我们以前的 TransUNet,它利用 Transformers 的自我关注来补充 U-Net 的本地化信息与全局背景。原创 2024-08-23 10:56:55 · 3004 阅读 · 1 评论 -
[书生大模型实战营][L0][Task1] Linux 远程连接 InternStudio
书生大模型实战营][Task1] Linux 远程连接 InterStudio。原创 2024-08-15 11:51:49 · 328 阅读 · 0 评论 -
昇思 25 天学习打卡营第 25 天 | MindSpore Diffusion 扩散模型
Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。具体的 Diffusion 扩散模型的原理,可以参考:https://zhuanlan.zhihu.com/p/650394311?utm_id=0MindSpore 的 docs 中有详细的说明;PyTorch 版本地址:过程:Diffusion对于图像的处理包括以下两个过程:a. 我们选择的固定(或预定义)正向扩散过程 q,逐渐将高斯噪声添加到图像中,直到最终得到纯噪声。原创 2024-07-31 13:07:45 · 1119 阅读 · 0 评论 -
【论文共读】【翻译】【CGAN】【Conditional Gernerative Adversarial Networks】
生成对抗网络[8]最近被引入,作为一种训练生成模型的新方法。在这项工作中,我们引入了生成对抗网络的条件版本,该网络可以通过简单地输入数据来构建,y,我们希望对生成器和判别器进行条件处理。我们表明,该模型可以生成以类标签为条件的MNIST数字。我们还说明了如何使用该模型来学习多模态模型,并提供了应用于图像标记的初步示例,其中我们演示了这种方法如何生成不属于训练标签的描述性标签。最近引入了生成对抗网络作为训练生成模型的替代框架,以规避近似许多棘手的概率计算的困难。原创 2024-07-31 08:30:00 · 770 阅读 · 0 评论 -
昇思 25 天学习打卡营第 24 天 | MindSpore Pix2Pix 实现图像转换
MindSpore 的 Pix2Pix 图像转换介绍Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。Pix2Pix是将cGAN应用于有监督的图像到图像翻译的经典之作,其包括两个模型:生成器和判别器。论文。原创 2024-07-30 17:32:52 · 867 阅读 · 0 评论 -
昇思 25 天学习打卡营第 23 天 | MindSpore GAN 图像生成
MindSpore 的 GAN 的图像生成介绍生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。由Ian J. Goodfellow于2014年发明,其主要由两个不同的模型共同组成——生成器(Generative Model)和判别器(Discriminative Model)。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出论文。原创 2024-07-30 15:50:15 · 1040 阅读 · 0 评论 -
【论文共读】【翻译】【GAN】Generative Adversarial Nets
提出了一种新的对抗过程估计生成模型的框架,其中我们同时训练两个模型:一个是捕获数据分布的生成模型G,另一个是估计样本来自训练数据而不是G的概率的判别模型D。G 的训练程序是最大化 D 犯错的概率。该框架对应于 minimax 双人游戏。在任意函数 G 和 D 的空间中,存在一个唯一的解,其中 G 恢复训练数据分布,D 在所有地方都等于1/2。在G和D由多层感知器定义的情况下,整个系统可以通过反向传播进行训练。在训练或生成样本期间,不需要任何马尔可夫链或展开的近似推理网络。原创 2024-07-30 15:12:31 · 1863 阅读 · 0 评论 -
昇思 25 天学习打卡营第 22 天 | MindSpore DCGAN 生成漫画图像
MindSpore 的 DCGAN 的图像风格迁移互换DCGAN(深度卷积对抗生成网络), 是 GAN 网络的扩展;不同之处在于DCGAN会分别在判别器和生成器中使用卷积和转置卷积层。论文地址论文中文翻译地址主要创新点:a. 提出并评估了一组对卷积 GAN 架构拓扑的约束,这些约束使它们在大多数设置下都能稳定地进行训练。我们将这类架构命名为深度卷积 GAN (DCGAN)b. 使用经过训练的判别器进行图像分类任务,显示出与其他无监督算法相比的竞争性能。原创 2024-07-30 12:40:04 · 689 阅读 · 0 评论 -
【论文共读】【翻译】【DCGAN】UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL
近年来,使用卷积网络 (CNN) 的监督学习在计算机视觉应用中得到了大量采用。相比之下,使用CNN的无监督学习受到的关注较少。在这项工作中,我们希望帮助弥合CNN在监督学习和无监督学习方面的成功之间的差距。我们介绍了一类称为深度卷积生成对抗网络 (DCGAN) 的 CNN,它们具有一定的架构约束,并证明它们是无监督学习的有力候选者。在各种图像数据集上进行训练,我们展示了令人信服的证据,证明我们的深度卷积对抗对在生成器和鉴别器中学习了从对象部分到场景的表示层次结构。原创 2024-07-30 11:21:27 · 958 阅读 · 0 评论 -
昇思 25 天学习打卡营第 21 天 | MindSpore CycleGAN图像风格迁移互换
MindSpore 的 CycleGAN 的图像风格迁移互换论文地址论文中文翻译地址主要流程:我们有一个转换器 G : X → Y,另一个转换器 F : Y → X,那么 G 和 F 应该是彼此的倒数,并且两个映射都应该是双射。我们通过同时训练映射 G 和 F,并添加周期一致性损失(cycle consistency losses)来应用这一结构假设,该损失鼓励 F(G(x)) ≈ x 和 G(F(y)) ≈ y。原创 2024-07-29 14:27:34 · 1185 阅读 · 0 评论 -
[论文共读][翻译][CycleGAN] Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
图像到图像转换是一类视觉和图形问题,其目标是使用一组对齐的图像对的训练来学习输入图像和输出图像之间的映射。但是,对于许多任务,配对训练数据将不可用。我们提出了一种学习方法,用于在没有配对样本的情况下将图像从源域 X 转换为目标域 Y。我们的目标是学习 G : X → Y 的映射,使得 G(X) 的图像分布与使用对抗损失的分布 Y 无法区分。由于这种映射受到高度欠限,我们将其与反向映射 F : Y → X 耦合,并引入周期一致性损失以强制 F(G(X)) ≈ X(反之亦然)。原创 2024-07-29 11:20:44 · 1460 阅读 · 0 评论 -
昇思 25 天学习打卡营第 20 天 | MindNLP ChatGLM-6B 对话流
MindSpore 的使用 ChatGLM-6B 的对话流GPT2 论文地址。原创 2024-07-27 23:52:30 · 457 阅读 · 0 评论 -
昇思 25 天学习打卡营第 19 天 | 基于MindSpore 的 GPT2 文本摘要
MindSpore 的使用 GPT2 实现文本摘要GPT2 论文地址。原创 2024-07-27 23:48:28 · 459 阅读 · 0 评论 -
昇思 25 天学习打卡营第 18 天 | 基于 MobileNetV2 实现垃圾分类的函数自动微分
MindSpore 的 MobileNetV2 实现垃圾分类的函数自动微分原创 2024-07-26 16:43:46 · 704 阅读 · 0 评论 -
昇思 25 天学习打卡营第 17 天 | 基于 MindSpore 通过 GPT 实现情感分类
mindspore 实现 GPT 实现情感分类;GPT 论文地址GPT 基本介绍:它是 OpenAI 于2018年开发并发布的一种新型语言模型。他是通过对各种未标记文本语料库进行语言模型的生成预训练,然后对每个特定任务进行判别性微调,可以实现自然语言理解包括各种不同的任务,例如文本蕴涵、问答、语义相似性评估和文档分类等功能。原创 2024-07-26 14:15:19 · 640 阅读 · 0 评论 -
【论文共读】【翻译】【GPT】Improving Language Understanding by Generative Pre-Training
自然语言理解包括各种不同的任务,例如文本蕴涵、问答、语义相似性评估和文档分类。尽管大量未标记的文本语料库很丰富,但用于学习这些特定任务的标记数据很少,这使得判别性训练的模型难以充分执行。我们证明,通过对各种未标记文本语料库进行语言模型的生成预训练,然后对每个特定任务进行判别性微调,可以实现这些任务的巨大收益。与之前的方法相比,我们在微调过程中利用任务感知的输入转换来实现有效的传输,同时需要对模型架构进行最少的更改。我们在自然语言理解的广泛基准上证明了我们的方法的有效性。原创 2024-07-26 12:40:37 · 1516 阅读 · 0 评论 -
昇思 25 天学习打卡营第 16 天 | mindspore 实现 BERT 对话情绪识别
mindspore 实现 BERT 对话情绪识别;BERT 论文地址BERT 基本介绍:它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。创新点:主要实在 pre-train 方法上;训练BERT的时候,随机把语料库中15%的单词做Mask操作。原创 2024-07-24 14:20:34 · 859 阅读 · 0 评论 -
[论文共读][翻译][BERT][Pre-training of Deep Bidirectional Transformers for Language Understanding]
介绍了一种新的语言表示模型BERT,即Bidirectional Encoder Representations from Transformers。与最近的语言表示模型不同(Peters et al., 2018a;Radford et al., 2018),BERT 旨在通过在所有层中共同调节左右上下文来预训练来自未标记文本的深度双向表示。因此,预训练的 BERT 模型只需一个额外的输出层即可进行微调,从而为各种任务(例如问答和语言推理)创建最先进的模型,而无需对特定任务的架构进行大量修改。原创 2024-07-24 12:43:38 · 1231 阅读 · 0 评论 -
[论文共读][翻译][ViT][Transformers for image recongnition at scale]
对 ViT 论文的全文翻译虽然 Transformer 架构已成为自然语言处理任务的事实标准,但它在计算机视觉中的应用仍然有限。在视觉中,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时保持其整体结构不变。我们发现,这种对CNN的依赖是不必要的,直接应用于图像补丁序列的纯转换器可以在图像分类任务中表现出色。原创 2024-07-24 07:45:00 · 2319 阅读 · 0 评论 -
昇思 25 天学习打卡营第 15 天 | mindspore 实现 VisionTransformer 图像分类
mindspore 实现 VisionTransformer 图像分类;VisionTransformer 论文地址VisionTransformer (ViT) 基本介绍:Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers 的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。原创 2024-07-23 15:26:56 · 835 阅读 · 0 评论 -
[论文共读][翻译][Transformer][Attension is All You Need]
Attention is all you need!显性序列转导模型基于复杂的递归或卷积神经网络,包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构,即Transformer,它完全基于注意力机制,完全省去了递归和卷积。对两个机器翻译任务的实验表明,这些模型在质量上更出色,同时具有更高的可并行化性,并且需要更少的训练时间。我们的模型在 WMT 2014 英语到德语翻译任务中实现了 28.4 BLEU,比现有的最佳结果(包括集成)提高了 2 BLEU 以上。原创 2024-07-23 13:03:48 · 1230 阅读 · 0 评论 -
昇思25天学习打卡营第14天 | mindspore 实现 SSD目标检测
mindspore 实现 SSD 图像检测;SSD 基本介绍:SSD (Single Shot MultiBox Detector) 是 Wei Liu 在 ECCV 2016 上提出的目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。原创 2024-07-19 16:36:55 · 604 阅读 · 0 评论 -
昇思25天学习打卡营第13天 | mindspore 实现 ShuffleNet 图像分类
ShuffleNetV1 是旷视科技提出的一种计算高效的 CNN 模型,设计目标是利用有限资源达到最好的模型精度;文章链接一文中提出的一种网络框架。解决的问题:降低模型的计算量,同时达到最好的模型精度,可以应用到移动端;创新点:a. 逐点分组卷积 (Pointwise Group Convolution):将输入的特征分组卷积;这样每个卷积核只处理输入特征图的一部分通道;原创 2024-07-19 14:34:47 · 902 阅读 · 0 评论 -
【论文共读】【翻译】ShuffleNet v1:一种用于移动设备的极其高效的卷积神经网络
Shuffle Net V1 文章的翻译原创 2024-07-19 13:14:01 · 669 阅读 · 0 评论 -
昇思25天学习打卡营第11天 | mindspore 实现 ResNet 50 迁移学习
mindspore 实现 ResNet 50 迁移学习;具体 ResNet 50 的模型原理以及实现,可以参考本博客的 ResNet50 分类;迁移学习背景:把已训练好的模型参数迁移到新的模型来帮助新模型训练;原因:a. 避免从 0 开始重复造轮子;b. 减少训练成本;如果采用导出特征向量的方法进行迁移学习,后期的训练成本非常低,用CPU都完全无压力,没有深度学习机器也可以做。原创 2024-07-16 11:49:29 · 475 阅读 · 0 评论 -
昇思25天学习打卡营第 12 天 | mindspore 实现 ResNet50 图像分类
mindspore 实现 ResNet50 图像分类;ResNet 基本介绍:Residual Networks 是微软研究院 Kaiming He 等人于2015年在 Deep Residual Learning for Image Recognition文章链接一文中提出的一种网络框架。解决的问题:传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题;原创 2024-07-16 11:00:51 · 735 阅读 · 0 评论 -
昇思25天学习打卡营第10天 | mindspore 实现 FCN 语义图像分割
mindspore 实现 FCN 语义图像分割;FCN 基本介绍Fully Convolutional Networks,FCN)是UC Berkeley的Jonathan Long等人于2015年在Fully Convolutional Networks for Semantic Segmentation文章链接一文中提出的用于图像语义分割的一种框架。FCN是首个端到端(end to end)进行像素级(pixel level)预测的全卷积网络语义分割的目的是对图像中每个像素点进行分类。原创 2024-07-15 00:02:32 · 631 阅读 · 0 评论 -
《昇思25天学习打卡营第9天 | mindspore 使用静态图加速》
mindspore 框架分为两种运行模式,分别是动态图模式(PYNATIVE_MODE)以及静态图模式(GRAPH_MODE); 默认使用动态图模式; 但是,也提供静态图模式; 使用静态图模式时,编译器可以针对图进行全局的优化,获得较好的性能,因此比较适合网络固定且需要高性能的场景原创 2024-07-12 12:08:18 · 496 阅读 · 0 评论 -
《昇思25天学习打卡营第8天 | mindspore 模型保存与加载用法》
使用 mindspore 保存与加载模型参数以及模型中间结果原创 2024-07-10 14:40:39 · 491 阅读 · 0 评论 -
《昇思25天学习打卡营第7天 | mindspore 模型训练常见用法》
使用 mindspore,针对手写字符集,使用 DenseNet 可以进行模型的训练与评估原创 2024-07-10 12:11:24 · 470 阅读 · 0 评论 -
《昇思25天学习打卡营第6天 | mindspore 函数式自动微分常见用法》
使用 mindspore 的函数式自动微分常见用法;原创 2024-07-05 08:16:28 · 405 阅读 · 0 评论 -
《昇思25天学习打卡营第5天 | mindspore 网络构建 Cell 常见用法》
使用 mindspore 构建神经网络原创 2024-07-02 23:55:57 · 409 阅读 · 0 评论 -
《昇思25天学习打卡营第4天 | mindspore Transforms 数据变换常见用法》
使用 mindspore 的常见的数据变换 Transforms 的使用方法;原创 2024-06-30 23:36:57 · 263 阅读 · 0 评论 -
《昇思25天学习打卡营第3天 | mindspore DataSet 数据集的常见用法》
昇思25天学习打卡营第3天; mindspore DataSet 数据集的常见用法原创 2024-06-29 23:41:52 · 350 阅读 · 0 评论 -
《昇思25天学习打卡营第2天 | mindspore Tensor 的常见用法》
使用 mindspore 的 Tensor 用法原创 2024-06-28 23:47:16 · 296 阅读 · 0 评论 -
Github 上神经网络渲染 的源代码
Pixel2Meshhttps://github.com/Tong-ZHAO/Pixel2Mesh-PytorchNeural Renderer:https://github.com/daniilidis-group/neural_renderer原创 2021-11-04 22:54:06 · 608 阅读 · 0 评论
分享