自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(48)
  • 收藏
  • 关注

原创 病理图像分割流程、指标及损失函数选择

3.弱监督学习(weakly supervised learning): 弱监督学习指的是使用不完全、不精确或不完全标注的信息进行学习。它使用少量的标注数据(标签)和大量未标注的数据进行训练。2.无监督学习(unsupervised learning):已知数据不知道任何标签,按照一定的偏好,训练一个智能算法,将所有的数据映射到多个不同标签的过程。1.监督学习(supervised learning):已知数据和其一一对应的标签,训练一个智能算法,将输入数据映射到标签的过程。

2024-11-11 08:52:00 661

原创 论文阅读分享:基于弱监督的病理图像腺体分割

● 弱监督学习可以在较少标注的情况下,生成像素级分割,适用于处理复杂的病理图像分割任务。因此,弱监督学习成为一种有效的替代方案,通过图像级标签实现分割,减少标注成本。● 伪掩码去噪与分割优化:为应对病理图像结构不规则、对比度低等问题,提出动态加权损失,以过滤伪掩码中的噪音,提高分割精度。● 随着深度学习在医学图像分割中的广泛应用,全监督学习虽然取得了优异表现,但由于需要大量像素级标注,应用受到限制。● 本研究进一步优化了伪掩码生成,通过重构模块增强图像的局部激活,以提高分割质量。弱监督学习的优势与方法。

2024-11-11 08:45:27 516 1

原创 基于生成对抗网络(GAN)人脸图像生成

生成器(G):输入随机噪声,通过学习数据的分布模式生成类似真实图像的输出。判别器(D):用来判断输入的图像是真实的还是生成器生成的。训练过程中,生成器尝试欺骗判别器,生成逼真的图像,而判别器则不断优化,以区分真实图像与生成图像。这种对抗过程最终使生成器的生成能力逐渐逼近真实图像。生成器将随机噪声(潜在向量)通过一系列转置卷积层转换为图像。每层使用ReLU激活函数,最后一层用Tanh激活函数,将输出限制在[-1, 1]。nn.Tanh()

2024-10-29 18:12:55 2023

原创 GAN生成MNIST手写数字图像

生成对抗网络 (GAN) 是一种通过“对抗性”学习生成数据的深度学习模型,通常用于生成图像、视频等数据。生成器 (Generator):用于生成假的数据样本,试图让判别器无法分辨其为假的。判别器 (Discriminator):用于区分输入的数据是真实的还是生成器生成的。GAN 的核心思想是,生成器和判别器通过相互对抗学习,生成器逐渐提高生成逼真数据的能力,而判别器逐渐提高区分真假数据的能力。最后,生成器生成的样本与真实样本之间的差异会越来越小。

2024-10-15 18:34:14 1038

原创 tensorflow数据增强

这周学习了如何使用 TensorFlow 和 Keras 实现一个包含数据增强的图像分类任务。数据增强在提升模型泛化能力上有显著作用,尤其在训练样本有限的情况下,随机翻转、旋转等操作能够帮助模型学习到更多的图像变体,从而在测试集上取得更好的表现。

2024-10-10 16:03:21 1176

原创 L4 KNN 算法

KNN 算法的核心思想是:给定一个样本点,找到其在特征空间中最接近的 ( k ) 个邻居,然后通过邻居的类别多数投票来决定该样本的分类。它是一个非参数的、基于距离的算法。我们使用的是一个模拟的约会数据集,每一行包含 3 个特征以及 1 个标签(类别)。每年获得的飞行常客里程数,玩游戏所占的时间百分比,每周消费的冰淇淋公升数。KNN 算法是一种简单易用的分类算法,它的优点在于无需显式的训练过程,适合小规模的数据集,但在面对大数据集时计算复杂度较高。

2024-10-01 23:28:13 1129 2

原创 L3 逻辑回归

penalty='l2', # 正则化类型,'l1', 'l2', 'elasticnet', 'none'dual=False, # 双对偶或原始方法tol=0.0001, # 优化过程的容差C=1.0, # 正则化强度的倒数,较小的值表示较强的正则化fit_intercept=True, # 是否拟合截距项intercept_scaling=1, # 拦截(截距)的缩放系数class_weight=None, # 给定类别的权重,'balanced' 或 dict。

2024-09-20 18:05:37 1261

原创 L2线性回归模型

鸢尾花数据集是一个经典的机器学习数据集,包含150条记录,每条记录有四个特征以及一个类别标签。花萼长度 (花萼宽度 (花瓣长度 (花瓣宽度 (我们可以使用这些特征来构建预测模型。在单变量预测中,我们将使用单一特征来预测目标变量,而在多变量预测中,将使用多个特征来提高预测准确性。这周学习了如何使用机器学习模型对鸢尾花数据集进行单变量和多变量预测。通过特征的选择和模型的构建,可以看到多变量模型可以更好地捕捉数据特征间的关系,从而提高预测的准确性。

2024-09-11 19:38:38 855

原创 R3 天气预测

这周学习了如何从头开始进行数据清洗、特征工程和深度学习模型训练的全过程。对数据处理有了更深了了解,至此循环神经网路学习结束。

2024-09-03 21:35:21 528

原创 R 2火灾温度预测

这周学习了如何使用LSTM模型进行时间序列预测,并掌握数据预处理、模型构建、训练、预测及模型评估的全流程,对lstm模型的使用有了初步了解。

2024-08-22 18:20:23 621 1

原创 R1 心脏病预测

这周学习了如何使用RNN模型来预测心脏病,构建了一个简单但有效的RNN模型,并对训练过程进行了可视化展示。为后续学习更复杂的网络结构(如LSTM或GRU)打下基础。

2024-08-15 12:29:48 889

原创 TR3复现Tramsformer

Transformer模型是深度学习中的一个革命性架构,自从在NLP领域引入以来,就因其高效处理序列数据的能力而迅速成为主流。本文将通过代码实现详细剖析Transformer模型的各个组件,包括多头注意力机制、前馈神经网络、位置编码、编码器和解码器等部分。Transformer模型由Vaswani等人在2017年提出,首次在自然语言处理任务中完全摆脱了循环神经网络(RNN),依赖于自注意力机制来处理序列数据。它不仅在机器翻译、文本生成等任务中表现优异,还在各种任务中展现了良好的扩展性和性能。

2024-08-08 21:48:00 695

原创 N8、9Seq2Seq翻译实战

这周学习讨一个用PyTorch实现的序列到序列(Sequence to Sequence, Seq2Seq)模型。这种模型广泛应用于机器翻译、文本生成等自然语言处理任务中。下面将详细解释代码的结构和一些关键函数的实现。接下来,定义了一个语言类Langelse:Lang类主要用于构建词汇表,将句子中的单词转换为索引,并统计每个单词的出现次数。编码器和解码器是Seq2Seq模型的核心组件。本周学习了如何使用PyTorch实现一个简单的Seq2Seq模型,并添加了注意力机制以提高模型的性能。

2024-07-30 18:59:57 780

原创 N7翻译实战

本周完成项目实战用于训练一个简单的序列到序列(seq2seq)模型以实现英语到法语的翻译。数据预处理、模型构建、训练以及可视化损失的过程。本周学习了构建和训练一个简单的seq2seq模型用于英语到法语的翻译,对前面的知识做了一个综合的运用。

2024-07-17 21:04:45 399

原创 N6 word2vec文本分类

定义文本分类模型,包含一个全连接层。初始化模型,设置输出类别数。这周学习了通过word2vec文本分类,包括数据加载、预处理、模型训练、评估和预测。进一步加深了对word2vec的理解。

2024-07-10 19:51:20 425

原创 springer latex模板参考文献不显示

问题是由于缺少 sn-mathphys-num.bst 样式文件,确保 sn-mathphys-num.bst 文件存在于 TeX 目录或工作目录中。将bst的sn-mathphys-num.bst 复制上一级文件即可。

2024-07-10 19:29:44 1162 4

原创 N5 使用Gensim库训练Word2Vec模型

jieba.suggest_freq('沙瑞金', True)# ... (其他类似的词)jieba.suggest_freq('赵德汉', True)方法用于调整词频,使得分词器能够更好地识别这些特定词汇。通过Word2Vec模型,我们可以有效地捕捉词汇之间的语义关系,应用在自然语言处理任务中如文本分类、聚类和推荐系统等。

2024-07-03 16:43:24 592

原创 N4中文分类

yield x, y定义了一个生成器函数,用于迭代文本和标签。一个简单的文本分类模型,包含嵌入层和全连接层nn.Linear。整个项目实现了一个文本分类任务,流程包括数据读取、分词和词汇表构建、数据加载与批处理、模型定义、训练与验证、最终精度达89%。这周熟悉文字信息的处理流程,为以后学习做了好的铺垫。

2024-06-19 19:10:44 526

原创 线性表-链表

单向链表通常用于实现栈、队列、哈希表和图等数据结构。‧ 栈与队列:当插入和删除操作都在链表的一端进行时,它表现出先进后出的特性,对应栈;当插入操作在链表的一端进行,删除操作在链表的另一端进行,它表现出先进先出的特性,对应队列。‧ 哈希表:链式地址是解决哈希冲突的主流方案之一,在该方案中,所有冲突的元素都会被放到一个链表中。‧ 图:邻接表是表示图的一种常用方式,其中图的每个顶点都与一个链表相关联,链表中的每个元素都代表与该顶点相连的其他顶点。

2024-06-13 20:05:17 459

原创 N3 中文文本分类

offsets = torch.tensor(offsets[:-1]).cumsum(dim=0) # 返回维度dim中输入元素的累计和定义了一个函数用于将一个批次的数据整合在一起,并创建了一个数据加载器。定义了一个文本分类模型,包括初始化函数、权重初始化和前向传播函数。模型由一个嵌入层和一个线性层组成。这个案例实现了一个完整的文本分类流程,从数据预处理、模型定义到训练和评估。使用torchtext加载数据,并利用PyTorch构建和训练深度学习模型,实现了对AG_NEWS数据集的文本分类任务。

2024-06-12 16:33:03 736 1

原创 第二周 线性表-数组

数组 array」是一种线性数据结构,其将相同类型的元素存储在连续的内存空间中。我们将元素在数组中的位置称为该元素的「索引 index」。从简单数组开始正式的算法学习之路。

2024-06-11 21:27:25 410

原创 N2 Embedding

为了了解文本和类别信息的特征,很用必要了解Embedding操作,其也是NLP的基础,我不研究NLP,但是在一些分类任务中可能会涉及类别信息处理。Embedding操作是将离散的符号(如单词、类别等)映射到连续的低维向量空间中的技术。它的核心思想是通过学习将每个符号映射到一个密集的低维向量表示,使得相似的符号在向量空间中距离较近,从而能够更好地表示符号之间的语义关系。原理:稠密表示: Embedding操作将高维的离散符号表示(通常是一个整数索引)转换为低维的稠密向量表示。

2024-06-05 19:22:12 1164

原创 第一周 数据结构与算法以及复杂度分析

数据结构(data structure)是组织和存储数据的方式,涵盖数据内容、数据之间关系和数据操作方法,它具有以下设计目标。1.空间占用尽量少,以节省计算机内存。2.数据操作尽可能快速,涵盖数据访问、添加、删除、更新等。3.提供简洁的数据表示和逻辑信息,以便算法高效运行这里暂时不纠结其他类型,随着深入学习慢慢了解。

2024-06-01 21:15:23 848

原创 为什么要学习数据结构和算法

我们学习数据结构和算法,并不是为了死记硬背几个知识点。我们的目的是建立时间复杂度、空间复杂度意识,写出高质量的代码,能够设计基础架构,提升编程技能,训练逻辑思维。

2024-06-01 19:19:35 310

原创 N1 one-hot编码

One-hot编码(one-hot encoding)是一种常见的数据预处理方法,用于将分类数据转换为可以输入机器学习算法的格式。具体来说,它将分类数据转换为一个二进制向量,其中只有一个位置的值为1,其余位置的值为0。这种编码方式特别适用于处理离散的分类变量,避免了分类变量之间可能出现的顺序关系误解。one-hot编码是一种简单而有效的分类变量处理方法,广泛应用于机器学习和数据处理领域。它能有效地避免序列误解,使分类变量能够以数值形式输入到各种算法中。

2024-05-29 19:58:15 831

原创 ResNeXt

前面已经学习了resnet家族已经inception卷积网络,还简单了解了SE注意力机制,今天学习resnet和inception的组合ResNeXt。ResNeXt是一种深度神经网络结构,它是ResNet(残差网络)和Inception(启发式卷积神经网络)的结合体。ResNeXt的主要思想是在神经网络中引入一种称为“分组卷积”的操作,从而实现更好的特征提取。相比于传统的卷积操作,分组卷积可以更好地利用GPU的并行计算能力,从而提高模型的运行速度和效率。

2024-05-14 19:48:55 968

原创 Densenet+SE

这周开始学习关于经典模型的改进如加注意力机制,这周学习Densenet加通道注意力即SE注意力机制。##SE注意力机制简介SE(Squeeze-and-Excitation)注意力机制是一种用于增强卷积神经网络(CNN)性能的注意力机制,特别适用于图像分类任务。该机制由Jie Hu等人于2018年提出,旨在通过动态调整特征图中每个通道的权重,从而增强模型对重要特征的感知能力。SE注意力机制的基本思想是利用全局信息来动态调整特征图中各个通道的重要性。

2024-05-08 20:58:12 1567 1

原创 inceptionv3

Inception v3是谷歌研究团队提出的深度卷积神经网络架构,通过引入多尺度的Inception模块和辅助分类器等技术,有效解决了深度网络训练中的梯度消失和模型参数过多的问题。该网络利用不同大小的卷积核并行处理图像信息,结合Batch Normalization和全局平均池化等优化策略,以较少的参数实现了优异的图像分类和识别性能,成为了深度学习图像处理领域的重要里程碑之一。下面分别进行介绍。

2024-04-29 20:03:22 561

原创 inceptionv1

卷积神经网络大家族中有很多经典的网络,前面已经学习resnet,densenet相关网络,今天学习一种更久远的一种网络GooLenet这周主要学习了inceptionv1模型,主要学习了1x1卷积的运用,其大大降低了输入特征图的通道数,减少了网络参数与计算量,这为以后改进网络模型提供了启发。

2024-04-19 14:44:21 432

原创 车牌号的识别

"""nn.Conv2d()函数:第一个参数(in_channels)是输入的channel数量第二个参数(out_channels)是输出的channel数量第三个参数(kernel_size)是卷积核大小第四个参数(stride)是步长,默认为1第五个参数(padding)是填充大小,默认为0"""# 最终reshapereturn x# 定义Reshape层这段代码定义了一个名为 Network_bn 的神经网络模型类,其中包含了卷积层、批归一化层和全连接层。

2024-04-10 20:40:33 1061

原创 DenseNet实现乳腺癌识别

这周继续巩固了前面的知识点,对Densenet网络的实现和应用有了更深的了解,但是目前也只是学会大致调用原来的模型,自己修改还存在一定困难,后面尝试争取自己修改模型,深入学习。

2024-04-03 20:28:53 281

原创 resnet50v2

前面对resnet有了一定了解,主要关注其残差结构,其缓解了梯度消失的问题,是卷积神经网络的一大创举,这周主要学习resnet50v2,其是对resnet的改进。ResNet50V2 是对 ResNet50 的改进版本,它在保留了 ResNet 架构的基本特征的同时,进行了一些改动和优化,以提升模型性能和训练效率。

2024-03-20 20:40:05 932

原创 1.numpy总结(1)

解除了很久的pytorch,这里对pytorch及其相关知识做个总结。首先从基本的numpy库入手。提示:这里对文章进行总结:例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。

2024-03-13 16:48:43 570

原创 pytorch实战:彩色图片识别

这周主要将卷积神经网络的设计细节和相关公式熟悉了一下,这些东西很基础但是很重要,由于前面只关注代码而忽略了数学推导从而导致在后面的任务受阻,从这次实验结果可以看出对于浅层神经网络其对于大量数据容易出现欠拟合,模型泛化能力远不及深度网络。

2024-03-12 20:26:29 757

原创 Densenet

这周学习densenet,主要了解其结构设计稠密连接。DenseNet(Densely Connected Convolutional Networks)是由Gao Huang、Zhuang Liu、Laurens van der Maaten和Kilian Q. Weinberger等人于2016年提出的深度学习网络架构。DenseNet 的设计灵感主要来自于解决深度神经网络中的梯度消失问题和参数利用问题。

2024-03-05 19:52:41 834

原创 resnet50

前面对基础有了详细的了解,已经学会神经网络训练流程,这周对深入网络resnet进行学习。ResNet-50(Residual Network with 50 layers)是一种深度卷积神经网络,由Microsoft Research提出。它是ResNet系列的一部分,具有50个层次,因此得名ResNet-50。ResNet-50是一种非常深的神经网络,通过使用残差块(Residual Blocks)解决了深度网络训练中的梯度消失问题,使得训练更加容易。

2024-02-27 20:54:12 997

原创 tensorflow-VGG猫狗识别

前面已经对tensorflow训练框架已经有了熟悉的了解,这周主要使用VGG16实现猫狗识别,同时学习model.train_on_batch方法。VGG16总共有16层,13个卷积层和3个全连接层,第一次经过64个卷积核的两次卷积后,采用一次池化,第二次经过两次128个卷积核卷积后,再采用池化,再重复两次三个512个卷积核卷积后,再池化,最后经过三次全连接。

2024-02-19 21:21:44 374

原创 tensorflwo运动品牌识别

经过三周的学习已经对tensorflwo框架有了大致掌握,这周学习一种新的打标签目录结构用于运动品牌识别这周主要对前面的知识加以巩固,这个学习框架十分固定,要对其十分熟悉,为后面学习深度网络打基础。

2024-01-30 20:05:43 299

原创 tensorflow猴痘病识别

这周对对tensorflow训练框架进行了加强学习,形式很固定,为后面学习深度网络打下来良好的基础。

2024-01-23 20:22:50 436

原创 tensorflow:天气识别

这周学习了使用tensorflow加载自己的数据集,为后续学习做好了铺垫。

2024-01-20 10:26:10 1042

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除