
深度学习基础
文章平均质量分 71
君不见~
这个作者很懒,什么都没留下…
展开
-
错误: gdalbuildvrt 命令未找到——的问题
即使安装了 rasterio 这个Python库(它依赖GDAL的核心库),GDAL的命令行工具也可能没有被安装,或者安装了但其所在的目录没有被添加到系统的PATH环境变量中。如果已安装但不在PATH中,需要找到GDAL安装目录下的 bin 文件夹(其中包含 gdalbuildvrt.exe 或 gdalbuildvrt),并将此文件夹的完整路径添加到系统的PATH环境变量中。如果显示版本信息,说明已安装且在PATH中,问题可能出在Python环境未能正确获取PATH(较少见)。原创 2025-05-22 21:38:31 · 371 阅读 · 0 评论 -
在WSL2中运行nvidia-smi时出现命令未找到的问题
在WSL2中执行nvidia-smi命令时,若提示命令未找到,可能是由于Windows宿主机的NVIDIA驱动未正确安装或版本过低,导致WSL2无法调用GPU功能原创 2025-05-22 17:23:16 · 417 阅读 · 0 评论 -
如何在windows server 2022 上安装WSL
本文介绍了在Windows Server 2022上简单安装WSL2的方法。通过使用wsl --install命令,用户可以在管理员PowerShell或命令提示符中执行该命令,并重启计算机,即可自动完成WSL2的安装。此命令会启用必要的可选组件,下载最新的Linux内核,将WSL2设为默认版本,并默认安装Ubuntu发行版。这一方法简化了在Windows Server 2022上配置WSL2的步骤。原创 2025-05-16 10:54:40 · 212 阅读 · 0 评论 -
如何在windows server 2022 上安装WSL
适用于 Linux (WSL) 的 Windows 子系统可供在 Windows Server 2022上安装。 本教程将指导你完成在计算机上启用 WSL 的步骤原创 2025-05-16 10:17:35 · 653 阅读 · 0 评论 -
windows10下安装多个版本的CUDA与不同版本CUDA的切换教程
最近要复现的深度学习模型有点多,不同的模型需要不同的环境,这其中就包括不同版本的CUDA,不同版本的PyTorch,不同版本的Python和Python库。当然,有些模型用高版本的环境(高一点的CUDA、Torch、Python等)有时候也是可以的,但一些模型会因使用环境不同的原因而报错。在这里写一下自己在windows10下安装多个版本的CUDA与不同版本CUDA的切换经验。原创 2025-04-28 15:55:22 · 731 阅读 · 0 评论 -
基于windows10的WSL详细安装与使用教程
WSL(Windows Subsyetem for Linux,适用于 Linux 的 Windows 子系统),是 Microsoft 公司于 2016 年在 Windows 10 平台发布的一项功能,其使得用户可以在 Windows 操作系统上运行 ELF 格式的 Linux 可执行文件。WSL 目前已发布两代产品:WSL 1 和 WSL 2。WSL 1 实现了 Linux 兼容层,将 Linux 系统调用转换为 Windows NT 系统调用;原创 2024-10-19 20:54:43 · 12077 阅读 · 9 评论 -
详解深度学习中编码器(Encoder)和解码器(Decoder)层
在深度学习中,编码器(Encoder)和解码器(Decoder)层是构成序列到序列(Seq2Seq)模型的两个主要组件,广泛应用于自然语言处理(NLP)任务中,如机器翻译、文本摘要、问答系统等。这些层的设计使得模型能够处理输入序列并产生相应的输出序列,即从一个域(如源语言文本)到另一个域(如目标语言文本)的转换。原创 2024-03-06 16:03:13 · 15093 阅读 · 0 评论 -
详解深度学习中自注意力机制、多头注意力、位置编码、编码器和解码器层以及前馈神经网络
自注意力(Self-Attention),也称为内部注意力,是一种注意力机制,使模型能够在序列内部加权并关注到不同位置的信息。这允许模型捕捉序列内的上下文关系,例如,在处理一个句子时,模型可以学会将“它”与句子中的正确名词关联起来。自注意力机制通过计算序列中每个元素对其他所有元素的注意力分数来工作,这些分数决定了在生成每个元素的表示时应该给予序列中其他元素多少权重特点全局依赖建模: 能够捕获长距离依赖,不受序列长度限制并行计算: 相比于RNN的序列化处理,自注意力可以并行处理所有元素,提高计算效率。原创 2024-03-06 15:45:37 · 2723 阅读 · 0 评论 -
详解深度学习之Transformer
Transformer模型是由Vaswani等人在2017年提出的,它是第一个完全基于注意力机制的模型,用于处理序列到序列的任务,比如文本翻译。它在处理序列数据时,相比于之前的模型如循环神经网络(RNN)和长短期记忆网络(LSTM),展现了更高的效率和性能。其创新之处在于使用了自注意力机制(Self-Attention),能够在处理序列数据时更高效地捕获远距离依赖关系,这使得它在并行化处理方面有着显著的优势。Transformer模型包括两大部分:编码器(Encoder)和解码器(Decoder)原创 2024-03-06 11:36:03 · 620 阅读 · 0 评论 -
详解深度学习中模型的权重和偏置
权重和偏置是神经网络的核心参数,决定了模型如何从数据中学习。它们在训练过程中通过反向传播和梯度下降算法更新,以优化模型的性能。训练完成后,这些参数会被保存在权重文件中,以便模型的后续使用或部署。这些过程确保了深度学习模型可以学习复杂的数据表示,并在多种任务中实现高效的预测。原创 2024-03-06 10:05:45 · 5481 阅读 · 0 评论 -
详解深度学习图像分割中“完整的上下文关系”
在深度学习和图像分割的领域中,"完整的上下文关系"通常指的是在进行图像分割任务时,算法能够综合利用图像中的全局信息和局部信息来理解和解析图像的能力。这种上下文关系的认识对于提高分割精度和效果至关重要,尤其是在处理复杂的视觉场景时,例如在自然景观中识别不同的物体,或者在医学图像中准确地区分各种组织和结构。原创 2024-03-05 11:05:55 · 1935 阅读 · 0 评论 -
详解深度学习中模型提取的特征图在模型中传递的形式(第1种解释)
在深度学习中,尤其是在图像分割和分类任务中,模型骨干(或称为基础网络)起着至关重要的作用。骨干网络的主要职责是提取图片中的特征,这些特征随后被用于分类或分割任务。那么,这些特征是以什么形式在网络中传递的呢?:在深度学习模型中,特征图是卷积层输出的数据。它们是原始输入图像经过一系列卷积、池化等操作后得到的,能够代表图像的某些特性或模式,如边缘、纹理等。随着网络层次的加深,特征图能够表示越来越高级的抽象概念:在深度学习框架中,张量是一种数据结构,用于表示数据的多维数组。它是特征图传递和存储的形式。原创 2024-03-05 16:25:54 · 464 阅读 · 0 评论 -
卷积神经网络(CNN)和Transformer这两个术语既可以指代整个网络架构,也可以指代网络中的单独层
在深度学习中,看到很多人说CNN是架构,也有人说CNN是层。同时,也看到很多人说Transformer是架构,但有人说Transformer是层......我去了解了一下,卷积神经网络(CNN)和Transformer这两个术语既可以指代整个网络架构,也可以指代网络中的单独层,具体取决于上下文。原创 2024-03-05 09:46:28 · 1217 阅读 · 0 评论 -
详解深度学习中模型提取的特征图在模型中传递的形式(第3种解释)
在深度学习中,图像分割和分类任务通常依赖于一个称为“backbone”的卷积神经网络(CNN)来提取图像的特征。这些特征图(Feature Maps)是通过卷积层、激活层、池化层等一系列层次的处理过程在网络中以张量(Tensor)的形式传递的。原创 2024-03-05 18:01:11 · 665 阅读 · 0 评论 -
深度学习中保存Tensor的方式及每种方式特定的应用场景和优缺点
在深度学习中,保存tensor的方式有多种,每种方式都有其特定的应用场景和优缺点原创 2024-03-01 11:46:28 · 2071 阅读 · 0 评论 -
详解深度学习图像分类任务中,进入分类头前的数据结构、分类头的输出,以及经过Softmax函数处理后的输出
总结来说,进入分类头前的数据是特征图,这些特征图是通过深度网络处理输入图像得到的高维张量。分类头的输出是一个向量,包含了模型对每个类别的原始预测得分。经过Softmax函数处理后,这个向量转换为一个概率分布,每个元素表示模型对相应类别的预测概率。这些概念和数据结构是深度学习图像分类任务中的基础,它们支持模型学习从输入图像中提取抽象特征,并将这些特征映射到具体的类别上。原创 2024-03-05 16:02:46 · 1798 阅读 · 0 评论 -
详解深度学习图像分割中的分割头
在深度学习图像分割领域,"分割头"(Segmentation Head)是指模型中专门用于执行图像分割任务的部分。它通常位于模型的末端,紧接在特征提取部分之后,负责将前面网络提取的特征图(Feature Map)转换成像素级的分类预测。分割头的设计直接影响到模型的分割性能和效率。原创 2024-03-04 20:27:23 · 4273 阅读 · 0 评论 -
详解深度学习图像分类中的分类头
在深度学习图像分类任务中,分类头(Classification Head)是模型中专门用于将学习到的特征表示映射到类别预测上的部分。它通常位于网络的末端,紧跟在特征提取层(例如卷积层、Transformer层)之后。原创 2024-03-04 20:43:47 · 6022 阅读 · 0 评论 -
详解深度学习中的张量和特征图
在深度学习中,张量是一种多维数据结构,用于在神经网络模型中表示和存储数据。张量可以被视为向量和矩阵的高维推广。在不同的上下文中,张量可以是标量(0维张量)向量(1维张量)矩阵(2维张量)或更高维度的数组。深度学习框架(如TensorFlow和PyTorch)中的大部分操作都是围绕着张量进行的,包括数据的输入、模型参数和输出等。原创 2024-03-05 11:48:29 · 1886 阅读 · 0 评论 -
深度学习之batch size、iterations、epochs
batch使用训练集中的一小部分样本对模型权重进行一次反向传播的参数更新,这一小部分样本被称为“一批数据”iteration是使用一个batch数据对模型进行一次参数更新的过程,被称为“一次训练”epoch使用训练集的全部数据对模型进行一次完整训练,被称为“一代(轮)训练”原创 2024-02-29 15:38:29 · 851 阅读 · 0 评论 -
详解深度学习中的特征图融合和特征图拼接
在深度学习的图像分割和分类任务中,特征图融合(Feature Map Fusion)和特征图拼接(Feature Map Concatenation)是两种常用的技术,用于结合不同层次或不同阶段的特征图,以提高模型的性能和泛化能力。这两种技术虽然在目的上相似,但在实现方式上有所不同。原创 2024-03-05 17:31:23 · 5460 阅读 · 0 评论 -
详解深度学习中模型提取的特征图在模型中传递的形式(第2种解释)
每一层的输出(即特征图)成为下一层的输入,这就是特征图在backbone中传递的方式。在深度学习中,尤其是在图像分割和分类任务中,模型中的特征图(feature maps)是通过多维数据结构,即张量(tensors),在模型的各个部分之间传递的。在深度学习的上下文中,"backbone"通常指的是模型的主干网络,这是负责提取图像的高级特征的部分。总之,特征图是以张量的形式在深度学习模型的backbone中传递的,允许模型有效地学习和提取图像中的信息,以进行分类、分割或其他视觉任务。原创 2024-03-05 17:57:13 · 551 阅读 · 0 评论 -
详解深度学习中前向传播和反向传播两个核心过程
前向传播和反向传播共同构成了神经网络训练的基础。前向传播负责根据当前参数生成预测,而反向传播则负责根据这些预测和实际结果之间的差异来更新网络的参数,从而让网络学习到数据中的模式和结构。这两个过程使得深度学习模型能够在复杂的任务中表现出卓越的性能,无论是在视觉识别、语言处理还是其他领域。原创 2024-03-05 18:06:18 · 1042 阅读 · 0 评论