自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(44)
  • 收藏
  • 关注

原创 总结:Python语法

Python中的字典、列表和数组是三种常用的数据结构,它们各自有不同的用途和特性。字典。

2024-08-22 17:04:49 2374 1

原创 总结:数字图像处理基础知识

尺度空间是图像通过高斯滤波器在不同标准差(σ)下的一系列表示。每一个标准差对应一个模糊版本的图像,这些图像构成了一个连续的尺度空间。

2024-08-21 23:16:14 1835 1

原创 多项式线性回归实现波斯顿房价预测任务

1)采用纯python语言实现不能调用pytorch库函数。2)绘制损失函数变化曲线。

2024-08-02 22:03:50 730

原创 24.9.27学习笔记

是一种在训练深度神经网络时用于初始化网络权重的策略。它的核心思想是在网络的每一层保持前向传播和反向传播时的激活值和梯度的方差尽可能一致,以避免梯度消失或梯度爆炸的问题。这种方法特别适用于激活函数是线性的情况下,比如tanh函数。,因为ReLU函数在正半轴是线性的,在负半轴是常数,这破坏了Xavier初始化的假设。针对ReLU激活函数,通常使用Kaiming初始化(也称为He初始化)然而,Xavier初始化并不适用于所有类型的激活函数。,它对Xavier初始化进行了修改,以适应ReLU的特性.

2024-09-28 12:01:34 306

原创 24.9.26学习笔记

是深度学习领域中的一项重要技术,它最初灵感来源于人类视觉处理系统中的选择性注意现象。在深度学习模型中,注意力机制允许模型在处理信息时,更加关注输入数据的某些部分而忽略其他部分,这可以提高模型对关键信息的捕捉能力,从而提升模型的性能。

2024-09-26 15:41:34 672

原创 24.9.25学习笔记

是一种评估机器翻译质量的方法,特别是它如何接近人类翻译的程度。它由IBM在2002年提出,最初是为了机器翻译系统的评估而设计的,但后来也被广泛应用于其他自然语言处理任务,如文本摘要、对话系统等,作为衡量生成文本与参考文本相似度的指标。:BLEU分数通过比较机器生成的文本(候选文本)与一个或多个参考文本(通常是人类翻译的文本)之间的n-gram匹配程度来计算。n-gram是文本中的连续n个项目的序列,可以是字母、单词或短语。BLEU分数计算候选文本和参考文本之间不同长度n-gram的匹配程度。

2024-09-26 09:58:37 591

原创 24.9.24学习笔记

编码器(Encoder):将输入序列编码成一个固定长度的上下文向量(也称为隐状态或编码器的最终状态)。解码器(Decoder):根据编码器生成的上下文向量,逐步生成目标序列。

2024-09-24 16:23:42 961

原创 24.9.23学习笔记

机器翻译:将源语言文本自动转换为目标语言文本的过程。目标:生成准确、流畅且符合目标语言语法和习惯的翻译结果。

2024-09-23 15:42:41 664

原创 24.9.21学习笔记

是一种简化版的长短期记忆网络(LSTM),它在保持 LSTM 的优势的同时,减少了模型的复杂度。GRU 通过合并遗忘门和输入门,减少了参数数量,使得模型更容易训练且计算效率更高。

2024-09-23 13:06:32 885 1

原创 24.9.20学习笔记

简而言之,隐藏状态是RNN在每个时间步的“工作记忆”,而细胞状态是LSTM的“长期记忆”。在LSTM中,隐藏状态通常用于输出和传递到下一个时间步,而细胞状态则用于在时间步之间保持和传递重要的长期信息。与传统的前馈神经网络不同,RNN具有内部记忆功能,能够捕捉到输入数据中的时间依赖关系。这种特性使得RNN在处理诸如自然语言处理、语音识别、时间序列预测等任务时非常有效。隐藏状态和细胞状态是循环神经网络(RNN)及其变种,如长短期记忆网络(LSTM)中的概念,它们在处理序列数据时扮演着重要的角色。

2024-09-20 19:48:13 354

原创 24.9.19学习笔记

这行代码的意思是:你们把每天的讨论笔记(嵌入后的向量序列)输入到超级笔记本(LSTM 层)中,得到了最新的聚会计划(输出),并且更新了你们的当前决定(隐藏状态)和待办事项(细胞状态)。这样,无论讨论进行到哪一天,你们都能保持信息的最新状态,并准备好进行下一次讨论。这就像是你在聊天时,既能回应朋友的话(隐藏状态),又能记住你们之前聊过的所有细节(细胞状态)。:这就像是你们的“待办事项”列表,记录了所有你们还需要讨论和决定的事情。:在每次讨论后,你们会有一个更新后的计划,这就是 LSTM 层的输出。

2024-09-20 10:00:07 537

原创 24.9.18学习笔记

序列模型是一种专门用于处理序列数据的机器学习模型。序列数据的特点是其中的数据点之间存在明确的顺序关系或依赖性。这种类型的模型在诸如自然语言处理(NLP)、语音识别、时间序列预测等领域有着广泛的应用。下面我将详细介绍几种常见的序列模型及其工作原理。

2024-09-19 10:00:47 901

原创 24.9.16学习笔记

语义分割是计算机视觉中的一个重要任务,它通过对图像中的每个像素进行分类,实现了对图像内容的精细化理解。随着深度学习技术的发展,出现了多种有效的语义分割方法,如FCN、U-Net、Mask R-CNN、DeepLab和PSPNet等。这些方法在不同的应用场景中取得了很好的效果,并且随着研究的深入,未来还将有更多创新性的技术出现。全卷积网络(Fully Convolutional Networks,简称FCN)是一种用于语义分割任务的深度学习模型。

2024-09-16 17:58:04 1239

原创 24.9.14学习笔记

Fast R-CNN通过将分类和边界框回归整合进一个网络中,大大减少了训练时间和推理时间,同时也提高了检测的准确性。它的引入标志着目标检测领域的一大进步,也为后续的研究提供了重要的基础。尽管如此,Fast R-CNN仍然依赖外部的候选区域生成方法,直到Faster R-CNN的出现,才实现了候选区域生成的端到端学习。SSD(Single Shot MultiBox Detector)是一种流行的目标检测算法,它能够在一次前向传递中同时完成物体分类和位置回归,从而实现了实时检测的能力。

2024-09-14 17:49:29 910

原创 24.9.10学习笔记

尝试使用不同的模型架构,比如更深的网络(如ResNet50、ResNet101)、预训练模型(如VGG、Inception)或者最新的架构(如EfficientNet、DenseNet)。:如果数据集中有其他相关的任务,可以尝试同时训练模型在多个任务上,这有时能够提高模型在主要任务上的性能。:使用在大型数据集上预训练的模型作为特征提取器,只训练顶层的分类器,或者使用迁移学习逐步训练整个网络。使用一个大型的、训练好的模型来指导一个小型的模型的训练,这种方法称为模型蒸馏,:使用更复杂的学习率调度策略,如。

2024-09-11 12:06:34 245

原创 24.9.9学习笔记

数据并行:适合模型大小适中,但数据量大的情况。模型并行:适合模型非常大,单个设备难以承载的情况。混合并行:适用于既需要处理大数据集又需要处理大型模型的情况。这些并行化方法的选择取决于模型的大小、数据集的大小以及可用的计算资源。在实际应用中,开发人员通常会根据具体的需求和资源来选择最适合的并行化策略。数据增广(Data Augmentation)是深度学习中常用的一种技术,旨在通过增加训练数据的多样性来提高模型的泛化能力和鲁棒性。

2024-09-10 17:44:47 1215

原创 24.9.3学习心得

也被称为Inception网络,是一种深度卷积神经网络架构,由Google研究人员在2014年提出。它在当年的ImageNet挑战赛中取得了显著的成绩。GoogLeNet的核心创新是引入了Inception模块,这些模块能够以不同的尺度并行捕获信息,然后将结果合并,从而提高了网络的效率和性能。GoogLeNet。

2024-09-04 09:30:26 1051

原创 24.9.1学习心得

网络是由牛津大学视觉几何小组提出的一种卷积神经网络模型,该模型因其在ImageNet大规模视觉识别挑战赛(ILSVRC 2014)中的优异表现而闻名。VGG模型的特点在于其架构的简单性和一致性,以及对参数数量的大量使用,这使得它成为了深度学习领域中一个非常受欢迎的基础模型。

2024-09-01 23:24:25 944

原创 24.8.31学习心得

每个输出通道可以识别特定模式,输入通道核识别并组合输入中的模式、在CNN中,输入数据(如图像)通过多个卷积层进行处理。每个卷积层包含若干个卷积核(也称为滤波器或特征检测器),这些卷积核会在输入数据上滑动,对数据的不同部分执行逐元素的乘法操作,然后将结果相加得到一个输出值。这个过程可以理解为卷积核在寻找输入数据中的特定模式或特征。:如果你正在处理的是彩色图像,那么原始输入通常会有三个通道(红、绿、蓝)。每个通道代表了图像的一个方面,例如红色调、绿色调和蓝色调的强度。

2024-09-01 09:57:40 854

原创 24.8.28学习心得

梯度爆炸是指在反向传播过程中,梯度变得非常大,导致权重更新过大,从而使模型不稳定或发散。梯度消失是指在反向传播过程中,梯度变得非常小,导致权重更新几乎为零,从而使模型难以学习。原因:权重初始化不当、深层网络、激活函数选择不当。影响:权重更新过大、数值稳定性问题。解决方案:权重初始化、梯度裁剪、使用 LSTM/GRU、批量归一化。

2024-08-29 15:48:15 852

原创 24.8.26学习心得

验证数据集用于调整模型的超参数。用于选择最佳模型。在训练过程中频繁使用。帮助防止过拟合。测试数据集用于最终模型评估。用于估计模型在真实世界数据上的表现。在模型训练和验证阶段结束后使用。只有一次机会使用,以避免数据泄露。权重衰减通过在损失函数中引入一个依赖于权重大小的惩罚项,强制模型参数保持在合理范围内,从而帮助模型在训练过程中避免过拟合。这种技术特别适用于需要从有限数据中学习出强大表征能力的场景。

2024-08-26 21:23:29 1014

原创 24.8.24学习心得

简单来说,范数可以被看作是一种“长度”或者“大小”的度量,但它不仅限于我们通常所说的欧几里得几何中的长度概念。·这句话描述的是深度学习框架中的自动微分(automatic differentiation)过程,特别是在执行反向传播(backpropagation)时如何计算梯度。深度学习框架可以自动计算导数:我们首先将梯度附加到想要对其计算偏导数的变量上,然后记录目 标值的计算,执行它的反向传播函数,并访问得到的梯度。的贡献都是相等的,因此每个元素的梯度都是 1。中所有元素的总和,所以。

2024-08-26 15:49:30 486

原创 24.8.23学习心得

如果是5×4,五行四列,若axis=0,求和之后会有四列,也就是每一列对应的五个元素加起来,加到了第一行。张量学习了降维,张量求和时,axios等0或1时,张量如何变化。找到了李沐老师的深度学习pytorch版课程和教材。数据预处理如何插入缺失值,如何划分输入和输出。学习了数据的预处理,张量等等。

2024-08-23 22:50:14 179

原创 24.8.19学习笔记(MNIST,)

【代码】24.8.19学习笔记(MNIST,)

2024-08-19 21:49:59 170

原创 24.8.15学习笔记(Titanic - Machine Learning from Disaster)

整个流程就像是准备食材做一道菜:我们先从冰箱里拿出我们要做的菜的所有原料(加载数据),然后挑出我们最关心的那个食材(分离目标变量),接着把不需要的部分扔掉(删除目标列)。:接下来,我们从训练数据中找出我们最关心的一列数据,也就是乘客是否在泰坦尼克号沉船事件中存活('Survived'),我们把这一列单独拿出来,因为这是我们想要预测的结果。我们把训练数据中的 'Survived' 列删除,只留下其他的特征列。:对于数值类型的列,如果有些数据缺失了,我们就用所有已知数据的中间值(中位数)来填补这些缺失的数据。

2024-08-15 17:55:03 477

原创 24.8.14学习笔记

在PyTorch中,是一个非常重要的工具,用于高效地加载和预处理数据。它允许你以批处理的方式迭代数据集,并且可以轻松地添加数据增强、并行化处理等功能。下面是一些关于的关键概念和如何使用的简要说明:Batching(批处理):Shuffling(随机化):Parallelism(并行化):Custom Data Loading(自定义数据加载):

2024-08-15 10:05:51 211

原创 24.8.13学习笔记

【代码】24.8.13学习笔记。

2024-08-14 17:00:38 134

原创 24.8.12学习笔记

三角法:基于直方图的形状来确定阈值。迭代法:通过迭代过程逐步逼近最佳阈值。大津法:寻找使类间方差最大的阈值。自适应阈值:根据局部亮度变化来确定每个区域的阈值。

2024-08-13 09:45:32 730

原创 24.8.11学习笔记

使用 TensorBoard 通常需要在训练代码中添加适当的记录语句,将需要监控的数据写入特定的日志目录,然后通过命令行启动 TensorBoard 服务来查看可视化结果。总的来说,TensorBoard 极大地增强了对深度学习模型训练过程的洞察力,有助于更高效地开发和优化模型。:展示参数(如权重、偏置)的直方图和分布变化,有助于分析模型的学习情况和是否存在梯度消失或爆炸等问题。:对于生成嵌入向量的模型(如词嵌入),可以直观地观察向量的分布和关系。:帮助理解模型的架构,包括各层的类型、连接方式和参数数量。

2024-08-11 22:01:29 284

原创 24.8.10学习笔记

总的来说,这段代码实现了深度学习模型的标准训练流程,包括学习率调整、训练与验证、性能监控、最佳模型保存以及最终模型的保存。:创建了一个学习率调整器,每10个epoch将学习率乘以0.5,这是一种常见的学习率衰减策略,用于在训练过程中逐渐减小学习率,以帮助模型收敛。为训练和验证数据集创建了数据加载器,设置了批量大小为32,并在每个epoch中打乱数据顺序,以提高模型训练的泛化能力。,我们没有进行梯度清零和参数更新,因为验证过程的目的是评估模型性能,而不是进行训练。

2024-08-11 02:02:07 826

原创 24.8.8学习笔记

卷积层和池化层都是深度学习中处理图像数据的重要组成部分。卷积层通过滤波器检测图像中的特征,而池化层通过减少特征图的尺寸来降低计算量和过拟合风险。通过这些层的组合使用,我们可以构建出能够处理复杂图像任务的强大神经网络模型。im2col是一种在卷积神经网络 (CNN) 中用于提高卷积层计算效率的技术。它的基本思想是将输入图像的一部分转换为列向量,从而使得卷积运算可以转换为矩阵乘法的形式。这种方法可以显著加速卷积操作,并且在现代深度学习框架中广泛使用。假设有一个 3x3 的输入图像,卷积核大小为 2x2。通过。

2024-08-09 09:31:36 732

原创 24.8.7学习笔记

高斯核是一个二维的权重矩阵,其值由高斯分布函数生成。该函数的数学表达式为:

2024-08-08 01:14:27 728

原创 24.8.6学习笔记

每种方法都有其特点和适用场景,选择哪种方法取决于你的问题规模、资源约束以及你愿意投入的时间。例如,如果你的超参数空间很小,你可以考虑使用网格搜索;如果超参数空间很大,随机搜索可能是更好的选择;而对于复杂的优化问题,贝叶斯优化和遗传算法通常能够找到更优的解决方案。最优超参数采用了随机搜索的超参数优化方法,使预测准确率提高了10%左右以下是MNIST手写数字识别,并且加入了随机搜索的超参数优化方法。# 导入NumPy库,用于数值计算。

2024-08-07 01:11:23 729

原创 24.8.5学习笔记(MNIST手写识别)

out=W*x+b计算输入 x 的梯度 dx:通过 dout与 W 的转置相乘得到。计算权重 W 的梯度 dW:通过 x 的转置与 dout 相乘得到。计算偏置 b 的梯度 db:通过对 dout 沿着样本轴求和得到。1Momentum概念Momentum是一种加速梯度下降的方法,它通过引入动量的概念来加速收敛过程。在梯度下降中,每次更新权重时都会根据当前梯度的方向和大小来移动。Momentum 方法则会考虑之前几次梯度的方向,使得更新更加平滑和稳定。工作原理。

2024-08-06 01:24:52 480

原创 24.8.4学习笔记

在直方图均衡化过程中,原始图像的直方图(即像素强度分布)被转换成一个更均匀的分布。通过这种转换,可以增加图像中不同灰度级的数量,并使得每个灰度级出现的概率大致相等,从而增强图像的对比度和细节。通过这种方式,直方图均衡化能够扩展图像的动态范围并提高对比度,从而让图像看起来更加清晰。比如说,如果照片大部分区域都很暗,那么直方图中靠近左边(代表低亮度)的部分就会有比较高的“山峰”;假设我们有一张黑白照片,直方图就会统计出画面中从最黑(0 亮度)到最白(255 亮度)每个亮度级别有多少个像素。经过直方图均衡化后,

2024-08-04 22:24:24 378

原创 24.8.3学习笔记

实例化类(代码图1),创建一个两层神经网络模型。输入层大小为784(对应28x28像素的图像),隐藏层大小为50,输出层大小为10(对应10个数字类别)。

2024-08-04 01:56:44 398

原创 24.8.2学习笔记

权重惩罚方式L1正则化使用权重的绝对值之和来惩罚较大的权重值。L2正则化使用权重的平方和来惩罚较大的权重值。特征选择L1正则化倾向于产生稀疏解,即部分权重值为0,这有助于特征选择。L2正则化倾向于使所有权重值都非零,但值较小,有助于模型稳定性和泛化能力。适用场景L1正则化适用于特征数量很大,需要进行特征选择的情况。L2正则化适用于特征数量适中,可能存在多重共线性的情况。这一行代码是在配置神经网络模型的训练过程时指定使用的优化算法及其相关参数。

2024-08-02 22:28:20 1053

原创 24.8.1学习笔记

感知机。

2024-08-01 22:15:45 706

原创 24.7.30学习笔记

反转变换:反转图像的明暗,适用于提高某些情况下图像特征的可见性,比如黑白图像的轮廓检测。对数变换:增加图像暗部的对比度,使暗部细节更清晰,适合于增强图像整体的视觉效果。幂次变换(也称为伽马校正或伽马变换)是数字图像处理中一种非常有用的非线性变换技术,它可以通过调整图像的亮度和对比度来增强图像的视觉效果。与对数变换类似,幂次变换也可以用于扩展或压缩图像的亮度范围,但它提供了一种更为灵活的方式来调整图像的对比度。二项检验:用于检验二分类数据是否符合预期的比例。t 检验。

2024-07-30 22:19:42 913

原创 24.7.29学习笔记

import cv2# # 读取图像# image = cv2.imread('D:\study pic\down.jpg') # 替换为你的图像文件路径# # 获取原始图像的尺寸# # 计算新的尺寸,这里我们将其缩小到原来的一半# # 使用cv2.resize()函数缩小图像# # 显示原始图像和缩小后的图像# # 等待按键事件当你使用cv2.imread()函数从文件中加载一幅图像后,得到的image变量实际上是一个NumPy数组,它表示图像的数据。

2024-07-29 22:37:39 536

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除