- 博客(45)
- 收藏
- 关注
原创 自然语言处理入门6——RNN生成文本
用RNN生成文本,除了直接生成文本,还有一种更通用的用法,称为序列到序列的模型,也就是sequence to sequence。最典型的seq2seq应用就是机器翻译,输入一串用某种语言表示的文字,输出用另一种文字表示的文字。
2025-04-09 09:55:37
1014
原创 自然语言处理入门5——LSTM
本文介绍了RNN训练过程中可能存在的梯度爆炸和梯度消失问题,并由此引出了LSTM模型,对LSTM模型的实现和训练过程进行了介绍,并在外文语料库上进行了训练,最后提出了几点改进意见
2025-03-26 15:40:56
990
原创 自然语言处理入门2——神经网络
在自然语言处理中,神经网络可以处理计数方法计算量过大的问题,本文使用神经网络CBOW模型实现了单词的完形填空预测。
2025-02-27 12:29:34
1114
原创 自然语言处理入门1——单词的表示和距离
随着DeepSeek的火爆,AI大模型越来越被大众所接受,我们在日常生活和工作学习中也开始越来越频繁的使用豆包、通义千问、Kimi、DeepSeek、文心一言等大模型工具了。这些大模型底层技术都是Transformer模型,属于自然语言处理范畴。本文介绍了自然语言的表示方式以及相似度计算的方法。
2025-02-18 13:47:03
1002
原创 语义分割——VitSeg
第一个具有重大影响力的使用纯Transformer结构进行图像分类的模型就是VIT。所谓的ViTSeg,其实就是将ViT直接应用在语义分割任务上。
2024-12-19 14:52:03
1239
原创 语义分割——DeeplabV3plus
DeeplabV3plus是一个基于深度学习的语义分割模型,它结合了编码器-解码器结构和空洞可分离卷积技术,以实现高精度的图像分割。
2024-12-13 12:15:00
1310
原创 语义分割——全卷积网络FCN
3.第三种,就是把特征图上采样到原图的16分之一,再加上原始图像在卷积过程中得到的原图16分之一的特征图,然后再上采样2倍,回复到原图的8分之一,此时再加上原始图像在卷积过程中得到的原图8分之一的特征图,最后再恢复成原始图像的大小,得到结果,称为FCN-8s;FCN模型比较简单,它的核心原理就是用卷积神经网络提取图像的特征,并在舍弃了图像分类网络中的最后一层分类层,替换成了一个1X1卷积,得到要分类的特征图,之后通过上采样恢复成原始图像的大小,从而实现每个像素点的分类,得到分割的结果。
2024-11-01 14:17:14
794
原创 MIOU的计算
MIOU,即平均交并比(Mean Intersection over Union),是评价语义分割模型性能的一个重要指标,本文介绍了MIOU的计算方法
2024-08-29 16:46:47
1653
原创 VBA读取不带后缀名文本文件的方法(解决Unix文本文件在Windows下变成一行的读取)
Unix/Mac系统下的文件在Windows里打开的话,所有文字会变成一行,本文主要说明了这种文件的读取方法
2024-07-29 15:21:10
603
原创 深度学习中权重初始化的重要性
本文主要讨论了深度学习模型中的权重初始化问题,并比较了高斯分布和Xavier以及kaiming初始化的具体区别。
2024-04-30 16:13:47
1162
1
原创 卷积神经网络五:GoogleNet
在2014年的ImageNet图像识别大赛中,一个名叫GoogleNet的网络架构大放异彩。GoogleNet使用了一种叫作Inception的结构。其实GoogleNet本质上就是一种Inception网络,而一个Inception网络又是由多个Inception模块和少量的汇聚层堆叠而成。
2024-03-19 17:11:38
2312
原创 卷积神经网络四:VGG
本文介绍了VGG的原理以及代码实现,并在cifar-10和猫狗分类数据集上进行了测试,特别提到了批量归一化层对于训练效果的提升。
2024-03-13 16:13:12
2881
原创 卷积神经网络三:AlexNet
本文介绍了AlexNet网络模型的结构,并进行了代码实现,在cifar-10数据集上进行了训练,最后简单介绍了一下模型的预训练和微调。
2024-03-06 10:39:22
1038
原创 神经网络Pytorch实现
不过现在主流的深度学习都是采用框架来进行开发的,最主流的是:Tensorflow,Keras(对Tensorflow做了封装,本质上还是Tensorflow),Mxnet,Pytorch,以及国内百度的PaddlePaddle。下面我们构建了一个训练函数,采用了预训练的VGG16模型,因为VGG是在Imagenet上做的预训练,最后输出是1000类的,而我们这里是两类的,所以需要改造一下最后一层。我们有两种图片,一种是猫的图片,一种是狗的图片,希望训练一个模型,使得它可以对输入的猫狗图片区分。
2024-02-02 15:15:09
1008
原创 PCA算法和SVD算法简介
例如,如果在一个1*1的正方形中随机选择一个点,那么这个点距离边界小于0.001的概率只有约0.4%,但是,在一个10000维的单位超立方体中,这个概率大于99.99999%,在高维超立方体中,大多数点都非常接近边界。Ax = λx,其中λ就叫作矩阵A的一个特征值,n维向量x就叫作矩阵A的特征值λ对应的特征向量。要计算特征值和特征向量有一个问题,就是矩阵A必须要是一个n*n的方阵,当遇到A是一个m*n矩阵(m不等于n时),就无法使用特征值进行分解了,当遇到非方阵矩阵的时候就需要使用SVD算法了。
2023-12-21 14:46:20
1223
原创 KMeans聚类算法简介
所谓无监督就是指训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。在给定的数据情况下,聚类算法通过度量数据间的“距离”或者特征相似度,自动将这些数据分为若干个类别。4)判断是否达到要求或者已经迭代到了最大次数,如果是就停止,输出聚类结果,如果不是的话,则继续到第2)步,把每个数据进行聚类;可以看到,聚类的效果还是不错的,并且各自的质心对其簇内的数据而言,基本都处在“中心”位置。我们根据聚类后的四个类标签设置颜色,和我自己编写的程序结果一样。
2023-12-18 14:58:52
1096
原创 集成方法与随机森林简介
梯度提升和AdaBoosting的区别在于,梯度提升法的分类器是拟合前一个分类器的预测结果和真实结果的误差,通过不断地拟合这个误差来提升模型的训练精度,使得模型越来越好。不过也确实说明了投票分类器的结果是几个分类器投票集成的结果。集成方法的思想其实很好理解,简单来说就是构建很多个分类器,然后每个分类器分别预测,聚合每个分类器的预测结果,然后投票,将得票最多的结果作为预测类别。可以看到,在卫星数据集上,投票分类器和SVM分类器的结果是非常接近的,因为几个分类器的结果都有了提升,因此集成在一起的精度也有提升。
2023-12-06 16:11:54
412
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人