自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(45)
  • 收藏
  • 关注

原创 自然语言处理入门6——RNN生成文本

用RNN生成文本,除了直接生成文本,还有一种更通用的用法,称为序列到序列的模型,也就是sequence to sequence。最典型的seq2seq应用就是机器翻译,输入一串用某种语言表示的文字,输出用另一种文字表示的文字。

2025-04-09 09:55:37 1014

原创 自然语言处理入门5——LSTM

本文介绍了RNN训练过程中可能存在的梯度爆炸和梯度消失问题,并由此引出了LSTM模型,对LSTM模型的实现和训练过程进行了介绍,并在外文语料库上进行了训练,最后提出了几点改进意见

2025-03-26 15:40:56 990

原创 自然语言处理入门4——RNN

自然语言处理第四篇,介绍了循环神经网络RNN的原理,以及截断的训练方法,并在语言模型上应用RNN。

2025-03-19 16:17:29 976

原创 自然语言处理入门3——Embedding和神经网络加速计算

本文采用Embedding和负采样方式来加速神经网络模型CBOW的计算

2025-03-10 09:42:11 821

原创 自然语言处理入门2——神经网络

在自然语言处理中,神经网络可以处理计数方法计算量过大的问题,本文使用神经网络CBOW模型实现了单词的完形填空预测。

2025-02-27 12:29:34 1114

原创 自然语言处理入门1——单词的表示和距离

随着DeepSeek的火爆,AI大模型越来越被大众所接受,我们在日常生活和工作学习中也开始越来越频繁的使用豆包、通义千问、Kimi、DeepSeek、文心一言等大模型工具了。这些大模型底层技术都是Transformer模型,属于自然语言处理范畴。本文介绍了自然语言的表示方式以及相似度计算的方法。

2025-02-18 13:47:03 1002

原创 Ollama+DeepSeek本地化环境搭建

基于Ollama的DeepSeek本地化部署方案并测试

2025-02-08 15:28:22 1433

原创 Ollama+MaxKB的知识库分段调优

通过对上传文档的分段方式调整,提高知识库问答系统的命中率

2025-01-24 10:07:19 1533

原创 使用Ollama搭建自己的简单知识库

基于Ollama搭建本地的大模型,使用MaxKB界面,构建自己的本地知识库

2025-01-09 15:57:11 1824

原创 使用idea社区版开发SpringBoot应用的流程

idea社区版开发SpringBoot应用基本方法

2024-12-31 15:55:45 1702 1

原创 语义分割——VitSeg

第一个具有重大影响力的使用纯Transformer结构进行图像分类的模型就是VIT。所谓的ViTSeg,其实就是将ViT直接应用在语义分割任务上。

2024-12-19 14:52:03 1239

原创 语义分割——DeeplabV3plus

DeeplabV3plus是一个基于深度学习的语义分割模型,它结合了编码器-解码器结构和空洞可分离卷积技术,以实现高精度的图像分割。

2024-12-13 12:15:00 1310

原创 语义分割——PSPnet

PSPnet是一种利用金字塔池化模块来捕捉不同尺度的上下文信息,以提高对图像语义的理解和分割的准确性的深度神经网络。

2024-11-29 14:55:48 2107

原创 语义分割——SegNet

SegNet是一个端到端的像素级语义分割模型,本文介绍了SegNet的原理,并进行了代码实现和测试

2024-11-15 10:13:16 1090 1

原创 语义分割——U-Net

本文介绍了U-Net网络模型的原理,并在GID和VOC2012数据集上进行了测试

2024-11-05 15:52:39 1012

原创 语义分割——全卷积网络FCN

3.第三种,就是把特征图上采样到原图的16分之一,再加上原始图像在卷积过程中得到的原图16分之一的特征图,然后再上采样2倍,回复到原图的8分之一,此时再加上原始图像在卷积过程中得到的原图8分之一的特征图,最后再恢复成原始图像的大小,得到结果,称为FCN-8s;FCN模型比较简单,它的核心原理就是用卷积神经网络提取图像的特征,并在舍弃了图像分类网络中的最后一层分类层,替换成了一个1X1卷积,得到要分类的特征图,之后通过上采样恢复成原始图像的大小,从而实现每个像素点的分类,得到分割的结果。

2024-11-01 14:17:14 794

原创 深度学习训练中的数据增强

数据增强是深度学习中一个很重要的技巧,本文介绍了数据增强的方法并展示了做了数据增强后效果的提升

2024-10-21 11:07:14 1435

原创 MIOU的计算

MIOU,即平均交并比(Mean Intersection over Union),是评价语义分割模型性能的一个重要指标,本文介绍了MIOU的计算方法

2024-08-29 16:46:47 1653

原创 语义分割训练精度计算

语义分割训练精度的计算

2024-08-28 16:37:58 610

原创 VBA读取不带后缀名文本文件的方法(解决Unix文本文件在Windows下变成一行的读取)

Unix/Mac系统下的文件在Windows里打开的话,所有文字会变成一行,本文主要说明了这种文件的读取方法

2024-07-29 15:21:10 603

原创 自注意力简介

自注意力机制简介以及代码实现

2024-07-10 15:36:46 1195 1

原创 注意力机制简介

注意力机制简介

2024-06-19 16:04:43 1102

原创 用循环神经网络预测股价

用循环神经网络对股价序列进行预测

2024-05-27 17:11:45 919

原创 基于门控的循环神经网络:GRU

本文主要介绍了门控循环单元GRU网络的原理以及实现。

2024-05-20 15:11:42 1222

原创 基于门控的循环神经网络:LSTM

本文介绍了LSTM的原理,并手动实现了LSTM的代码,最后用正弦数据预测作为案例进行了实现。

2024-05-13 16:31:03 1166

原创 深度学习中权重初始化的重要性

本文主要讨论了深度学习模型中的权重初始化问题,并比较了高斯分布和Xavier以及kaiming初始化的具体区别。

2024-04-30 16:13:47 1162 1

原创 循环神经网络实例——序列预测

本文主要以01序列预测为例讲解了循环神经网络的运行过程,特别是Embedding层的处理过程。

2024-04-22 15:12:06 1245 1

原创 循环神经网络简介

循环神经网络简介,并在序列数据和mnist数据上实现了程序

2024-04-10 16:39:33 1148

原创 卷积神经网络六:ResNet

本文介绍了残差神经网络的原理与代码实现,并在cifar-10数据集上进行了训练和测试。

2024-03-26 15:43:41 790

原创 卷积神经网络五:GoogleNet

在2014年的ImageNet图像识别大赛中,一个名叫GoogleNet的网络架构大放异彩。GoogleNet使用了一种叫作Inception的结构。其实GoogleNet本质上就是一种Inception网络,而一个Inception网络又是由多个Inception模块和少量的汇聚层堆叠而成。

2024-03-19 17:11:38 2312

原创 卷积神经网络四:VGG

本文介绍了VGG的原理以及代码实现,并在cifar-10和猫狗分类数据集上进行了测试,特别提到了批量归一化层对于训练效果的提升。

2024-03-13 16:13:12 2881

原创 卷积神经网络三:AlexNet

本文介绍了AlexNet网络模型的结构,并进行了代码实现,在cifar-10数据集上进行了训练,最后简单介绍了一下模型的预训练和微调。

2024-03-06 10:39:22 1038

原创 卷积神经网络二:卷积神经网络原理简介与实现

介绍卷积神经网络的基本结构以及LeNet-5实现,并在mnist和cifar数据集上进行了训练

2024-02-28 14:28:00 1027

原创 卷积神经网络一:卷积运算

本文CNN原理部分参考复旦大学丘锡鹏老师的《神经网络与深度学习》一书。

2024-02-22 09:54:43 2378

原创 神经网络Pytorch实现

不过现在主流的深度学习都是采用框架来进行开发的,最主流的是:Tensorflow,Keras(对Tensorflow做了封装,本质上还是Tensorflow),Mxnet,Pytorch,以及国内百度的PaddlePaddle。下面我们构建了一个训练函数,采用了预训练的VGG16模型,因为VGG是在Imagenet上做的预训练,最后输出是1000类的,而我们这里是两类的,所以需要改造一下最后一层。我们有两种图片,一种是猫的图片,一种是狗的图片,希望训练一个模型,使得它可以对输入的猫狗图片区分。

2024-02-02 15:15:09 1008

原创 神经网络简介

神经网络简介及其实现

2024-01-08 14:28:17 866

原创 朴素贝叶斯简介

贝叶斯决策论是概率框架下实施决策的基本方法。本文是对朴素贝叶斯方法的简介。

2023-12-28 10:47:29 977

原创 PCA算法和SVD算法简介

例如,如果在一个1*1的正方形中随机选择一个点,那么这个点距离边界小于0.001的概率只有约0.4%,但是,在一个10000维的单位超立方体中,这个概率大于99.99999%,在高维超立方体中,大多数点都非常接近边界。Ax = λx,其中λ就叫作矩阵A的一个特征值,n维向量x就叫作矩阵A的特征值λ对应的特征向量。要计算特征值和特征向量有一个问题,就是矩阵A必须要是一个n*n的方阵,当遇到A是一个m*n矩阵(m不等于n时),就无法使用特征值进行分解了,当遇到非方阵矩阵的时候就需要使用SVD算法了。

2023-12-21 14:46:20 1223

原创 KMeans聚类算法简介

所谓无监督就是指训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。在给定的数据情况下,聚类算法通过度量数据间的“距离”或者特征相似度,自动将这些数据分为若干个类别。4)判断是否达到要求或者已经迭代到了最大次数,如果是就停止,输出聚类结果,如果不是的话,则继续到第2)步,把每个数据进行聚类;可以看到,聚类的效果还是不错的,并且各自的质心对其簇内的数据而言,基本都处在“中心”位置。我们根据聚类后的四个类标签设置颜色,和我自己编写的程序结果一样。

2023-12-18 14:58:52 1096

原创 集成方法与随机森林简介

梯度提升和AdaBoosting的区别在于,梯度提升法的分类器是拟合前一个分类器的预测结果和真实结果的误差,通过不断地拟合这个误差来提升模型的训练精度,使得模型越来越好。不过也确实说明了投票分类器的结果是几个分类器投票集成的结果。集成方法的思想其实很好理解,简单来说就是构建很多个分类器,然后每个分类器分别预测,聚合每个分类器的预测结果,然后投票,将得票最多的结果作为预测类别。可以看到,在卫星数据集上,投票分类器和SVM分类器的结果是非常接近的,因为几个分类器的结果都有了提升,因此集成在一起的精度也有提升。

2023-12-06 16:11:54 412

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除