自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(54)
  • 资源 (2)
  • 问答 (2)
  • 收藏
  • 关注

原创 G1学习打卡

GAN的核心思想GAN由**生成器(Generator)和判别器(Discriminator)**组成:生成器:输入随机噪声(如100维高斯分布),输出伪造图像(如28x28的MNIST手写数字)。判别器:输入真实图像或生成图像,输出一个概率值(0~1),判断图像是否为真。对抗过程:生成器试图欺骗判别器,判别器则努力识破生成器的伪造,两者在对抗中共同提升。关键实现细节(1) 模型架构生成器:使用全连接层逐步提升维度(100 → 128 → 256 → 512 → 1024 → 784)

2025-04-08 23:58:30 633

原创 N3-5学习打卡

学习了torchtext.data.utils.get_tokenizer()等分词相关函数了解到词嵌入层的作用是将离散的单词表示(通常为整数索引)映射为固定大小的连续向量。这些向量捕捉了单词之间的语义关系,并作为网络的输入。初始化词嵌入层的权重,可以使得模型在训练开始时具有一定的随机性,有助于避免梯度消失或梯度爆炸等问题torchtext.data.functional.to_map_style_dataset 函数的作用是将一个迭代式的数据集(转换为映射式的数据集。

2025-03-28 00:06:41 328

原创 N2学习打卡

安装torchtext可能出现找不到指定程序的报错,需要降低版本,可能是cuda版本不适配导致。

2025-03-20 22:32:34 351

原创 N1学习打卡笔记

One-Hot编码在NLP中的作用总结:基础词表示将离散型特征(单词、标签等)转换为二进制向量例:"apple"的one-hot编码可能为[0,0,1,0,…,0],维度等于词表大小核心功能消除语义歧义:确保每个词有唯一数值标识兼容传统模型:适配SVM、逻辑回归等无法直接处理文本的算法稀疏性控制:虽会产生高维稀疏矩阵,但可配合TF-IDF等加权策略使用典型应用场景词袋模型(Bag-of-Words)的基础构建文本分类任务的输入特征表示。

2025-03-11 00:08:06 986

原创 Y3学习打卡

熟悉了YOLOv5s模型的配置信息将YOLOv5s模型中第4层和第6层的C3模块重复次数减少,具体影响分析如下:1. 修改内容对比原始配置原来的第4层:[-1, 6, C3, [256]]原来的第6层:[-1, 9, C3, [512]]修改后配置修改后的第4层:[-1, 3, C3, [256]]修改后的第6层:[-1, 6, C3, [512]]2. 对模型性能的影响(1) 模型参数量与计算量参数量(Parameters)

2025-03-04 00:00:00 935

原创 Y2学习打卡

学会了利用yolov5训练指定数据。

2025-02-20 09:18:43 308

原创 Y1打卡学习笔记

学习了如何使用YOLOv5进行图像检测和视频目标检测YOLOv5 的工作原理单阶段检测:YOLOv5 是一种单阶段目标检测器。与两阶段的检测器(如 R-CNN 系列)不同,YOLOv5 在单个网络中同时完成目标的定位和分类,大大提高了目标检测的速度。骨干网络(Backbone):YOLOv5 使用了一个高效的骨干网络来提取图像特征。具体来说,它采用了 CSPDarknet53(Cross Stage Partial Network)作为主要的特征提取网络。

2025-01-23 19:25:03 233

原创 R6学习打卡

训练循环size = len(dataloader.dataset) # 训练集的大小num_batches = len(dataloader) # 批次数目, (size/batch_size,向上取整)train_loss, train_acc = 0, 0 # 初始化训练损失和正确率for X, y in dataloader: # 获取图片及其标签# 计算预测误差pred = model(X) # 网络输出。

2025-01-22 23:05:58 1013

原创 R5天气识别学习笔记

RNN及其变体在序列数据处理中的应用RNNRNN(Recurrent Neural Network,循环神经网络)是一类专门处理序列数据的神经网络模型。与传统的前馈网络(如全连接网络MLP、卷积网络CNN等)不同,RNN能够在序列的时间步之间传递信息,具备“记忆”先前输入的能力。这种特性使得RNN在处理依赖于上下文或时间顺序的任务时非常有效,例如自然语言处理(NLP)、时间序列预测和语音识别等。

2025-01-16 23:34:29 910

原创 R4-LSTM学习笔记

LSTM 的核心思想是通过门控机制来控制信息的流动。遗忘门(Forget Gate)决定哪些信息需要从细胞状态中丢弃。其中是 Sigmoid 激活函数,是权重矩阵,是偏置项,是前一时间步的隐藏状态,是当前时间步的输入。输入门(Input Gate)决定哪些新信息需要添加到细胞状态中。输出门(Output Gate)决定当前细胞状态的哪些部分将输出。

2025-01-09 22:40:05 891

原创 R1-3学习打卡

RNN 的核心思想是通过引入循环结构来捕捉序列数据中的时间依赖性。RNN 的每个隐藏层单元不仅接收当前时间步的输入,还接收前一时间步隐藏层的状态作为输入。sts_tst​是ttt时刻的隐藏状态。它是网络的“记忆”。sts_tst​stfUxtWst−1st​fUxt​Wst−1​函数fff通常是诸如tanhtanhtanh或者ReLUReLUReLU的非线性函数。

2025-01-01 23:23:38 648

原创 J9学习打卡笔记

Inception v3 的核心思想是使用Inception模块,在同一层中并行使用不同大小的卷积核(如 1x1、3x3、5x5),以捕捉不同尺度的特征。通过模块化设计,网络可以在不同层次上提取多尺度的特征,从而提高模型的泛化能力Inception v3 将输入尺寸增大到 299 * 299,优点如下:捕捉更多细节:较大的输入尺寸可以保留更多的图像细节,尤其是在高分辨率图像上。更深的特征提取:较大的输入尺寸允许卷积层在更大的感受野内提取特征,从而提高模型的表达能力。

2024-12-26 22:58:21 1055

原创 J8学习打卡笔记

主要特点和创新点(Inception模块)其设计理念是,在同一层网络中使用多种不同尺寸的卷积核(如1x1, 3x3, 5x5等)和池化层,然后将它们的输出拼接在一起。这种设计允许网络在同一空间维度上捕获多尺度特征,从而提高了网络的表达能力。1x1卷积核的使用不仅减少了计算量,还起到了降维的作用,帮助减少模型的参数数量和计算复杂度。辅助分类器:Inception v1在网络的中间层添加了两个辅助分类器。

2024-12-18 23:35:15 416

原创 J7学习打卡笔记

不报错可能是通道数已经匹配实际上采用本人代码时,修改conv_shortcut=False确实出现了错误,报错显示张量形状不匹配。

2024-12-05 23:12:10 453

原创 J6学习打卡

ResNeXt-50特点分组卷积(Grouped Convolutions):ResNeXt 引入了分组卷积的概念,将输入特征图分成多个组(group),每个组独立进行卷积操作,然后将结果拼接起来。2. 残差连接(Residual Connections):与 ResNet 类似,ResNeXt 也使用了残差连接,允许信息在网络中直接跳过某些层,从而缓解梯度消失问题,并使得训练更深的网络变得可行。

2024-11-28 22:40:49 708

原创 J5学习笔记打卡

DenseNet 通过密集连接增强了特征的复用和梯度流动,减少参数数量,提高了计算效率。SE-Net 通过学习通道间的相互依赖性来增强网络的表示能力,使得网络能够更好地关注重要的特征。DenseNet + SE-Net 结合了两者的优势,能够在复用特征的同时增强通道注意力的学习,从而进一步提升网络的性能。

2024-11-18 21:25:13 399

原创 J4学习打卡

学习了ResNet与DenseNet结合网络->DPN网络DPN网络的核心是双路径块(Dual Path Block),其结构如下:输入:输入特征图被分为两部分。分组卷积:一部分特征图通过分组卷积进行处理,类似于ResNeXt中的操作。密集连接:另一部分特征图通过密集连接进行处理,类似于DenseNet中的操作。特征融合:两部分特征图通过特定的融合方式(如相加或拼接)进行融合,形成最终的输出特征图。

2024-11-06 23:51:12 294

原创 J3学习打卡

完成了torch到tensorflow的代码转换,但是tensorflow运行显示loss较大,模型运行效果较差DenseNet采用了密集连接(Dense Connection),每一层的输入是前面所有层的输出的拼接(concatenation),而不是求和。这种设计使得每一层都能直接访问前面所有层的特征图,从而增强了特征的重用,并且减少了梯度消失问题。

2024-10-30 22:59:29 230

原创 J2学习打卡

V2对比原V1区别:预激活残差单元(Pre-activation Residual Units):ResNet(V1):在每个残差块中,卷积层在批归一化(Batch Normalization)和 ReLU 之前。ResNetV2:批归一化和 ReLU 激活在卷积操作之前。这被称为“预激活”结构,这样做有助于梯度流动,使得信息更容易传播,有助于更深的网络训练。

2024-10-24 21:37:02 429

原创 J1学习打卡

完成了tensorflow到pytorch代码的转换了解了CNN网络发展历史和残差网络由来增加训练次数获得了较为准确的模型。

2024-10-10 23:27:34 419

原创 L8打卡学习笔记

学习了随机森林模型的使用,理解了SVM和集成学习的基本原理。

2024-09-29 00:28:32 1172

原创 L5打卡学习笔记

本质上就是把输入向量的几个特征值做分类后按照影响因子排序后,作为逐层分类标准,影响因子大的排前面,例如花萼-length的影响最大的化 那么第一次就按这个参数分类,以此类推。

2024-09-26 23:10:26 451

原创 L4打卡学习笔记

K邻近模型用于分类,预测数据为数据库中相似度最高的n个数据中占比最大的结果值,n_neighbors用于控制K值。

2024-09-17 22:06:20 438

原创 L3学习打卡笔记

【代码】L3学习打卡笔记。

2024-09-12 22:51:15 635

原创 L2打卡学习笔记

sklearn.impute.SimpleImputer 是 Scikit-learn 库中的一个类,用于处理数据集中缺失值的插补。它通过替换缺失值为统计值(例如均值、中位数或众数)或指定的常数来处理缺失数据。

2024-09-05 09:20:48 1061

原创 T11打卡-学习笔记

adam在训练集上表现优于sgd 但是测试集上两者相差不大。

2024-08-28 21:34:41 942

原创 T10打卡-学习笔记

随机改变图像对比度学习了数据增强 包括旋转、翻转、缩放、改变图像对比度、改变像素。

2024-08-14 22:20:02 305

原创 T9打卡学习笔记

K.set_value TensorFlow 2.16中已被弃用 可通过tf.keras.optimizers.schedules.ExponentialDecay设置动态学习率K.get_value TensorFlow 2.16中已被弃用 可通过current_lr = optimizer.learning_rate.numpy()获取当前学习率。

2024-08-07 22:31:43 1186

原创 T8打卡学习笔记

遇到问题 ‘Adam’ object has no attribute ‘lr’ 将优化器调整为SGD并删除了动态学习率后成功运行,但是模型准确度较低只有50%后续使用 optimizer=Adam(learning_rate=0.001) 后模型准确度也未明显提升预测有误。

2024-08-01 23:36:38 1038

原创 T7打卡-学习笔记

【代码】T7打卡-学习笔记。

2024-07-25 21:08:54 314

原创 T6打卡—学习笔记

模型训练精度效果良好但是测试精度较差添加BN层后测试精度得到提高。

2024-07-11 23:23:22 620

原创 P5打卡 -学习笔记

降低dropout数值后模型准确度显著提升。

2024-07-04 23:29:54 930

原创 T4打卡 学习笔记

使用了新版本的tensorflow,layers.Rescaling(1./255, input_shape=(img_height, img_width, 3))方法与旧版本调用有所不同,尝试了将归一化注释,结果显示收敛精度显著降低。

2024-06-28 13:46:34 877

原创 T3 笔记

将对应的内容 layers.experimental.preprocessing.Rescaling 删除后运行成功,Rescaling 层用于将输入图像的像素值从 [0, 255] 归一化到 [0, 1],可以用如下操作代替归一化。

2024-06-21 11:48:05 1013

原创 T2学习笔记

【代码】T2学习笔记。

2024-06-06 20:10:19 743

原创 T1学习笔记

熟悉了各层网络的作用,掌握了TensorFlow的基本逻辑和操作。

2024-05-30 21:31:00 1076

原创 P10学习笔记

批量归一化批量归一化有助于稳定和加速训练过程。这是因为它减少了内层协变量转移(internal covariate shift),使得每一层的输入分布更稳定。批量归一化也有轻微的正则化效果,可以减少过拟合。层次化卷积结构该模型使用了多个卷积层,这有助于逐步提取输入图像中的特征。使用了两个2x2的最大池化层,这有助于减少特征图的尺寸,从而减少计算量和参数量。ReLU激活函数ReLU激活函数在卷积层之后使用,有助于引入非线性,从而使模型能够学习复杂的模式。可扩展性。

2024-05-24 11:47:54 640

原创 P9学习笔记

熟悉了YOLOv5-Backbone模块的基本结构。

2024-05-16 22:07:40 283

原创 P8学习笔记

跨阶段特征融合:C3 模块利用 CSP 结构将特征图分为两部分,一部分直接通过,而另一部分则通过一系列卷积层。最后,这两部分在深度上合并。这种结构可以减少计算量,同时保持或提高网络性能。瓶颈设计:在卷积层中,C3 模块通常使用瓶颈设计(即先降维、再升维),这有助于减少参数数量和计算成本,同时仍然可以学习到有效的特征表示。残差连接:C3 模块中的卷积层经常会包含残差连接,这有助于信息在网络中的传播并减少梯度消失的问题,特别是在深层网络中。

2024-05-09 21:34:42 438 1

原创 P7学习笔记

Adam优化器表现明显优于SGD。

2024-04-25 21:19:57 458 1

DesktopDigitalClock_x64.zip

可实现windows11日历栏秒钟显示,具体见博文。

2021-11-30

DiskCheck.zip

硬盘检查神奇

2021-11-24

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除