自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

YIAN爱学习的博客

分享机器学习、人工智能、数据分析相关的知识,欢迎大家一起交流!

  • 博客(117)
  • 收藏
  • 关注

原创 【自然语言处理|迁移学习-09】:中文句子关系任务

使用迁移学习的方式实现句子关系判断

2024-12-09 23:38:52 222

原创 【自然语言处理|迁移学习-08】:中文语料完型填空

介绍完型填空任务中数据集的构建以及使用迁移学习方式完成迁移学习任务

2024-12-09 21:51:48 220

原创 【自然语言处理|迁移学习-07】:中文分类

用迁移学习的第二种方式,采用预训练模型+微调的方式实现中文文本分类

2024-12-09 20:40:47 963

原创 【自然语言处理|迁移学习-06】:AutoModel处理不同的NLP任务

使用AutoModel实现不同的NLP任务

2024-12-09 12:54:31 1078

原创 【自然语言处理|迁移学习-05】:AutoModel加载不同模型

介绍迁移学习中AutoModel对不同任务类型的预训练模型进行加载,针对于不同的任务,其中仍然有很多细节不同,后续进行介绍

2024-12-09 11:12:03 1034

原创 【自然语言处理|迁移学习-04】Transformers库介绍以及pipeline的使用

本篇文章简要介绍了transformers库,并对使用pipeline工具处理各种npl任务进行介绍

2024-12-09 00:07:55 1302

原创 【自然语言处理|迁移学习-03】:迁移学习概念及常用预训练模型

介绍迁移学习概念和常常见的预训练模型

2024-12-08 16:13:53 800

原创 【自然语言处理|迁移学习-03】:fastText词向量迁移

介绍fasttext的词向量迁移方法

2024-12-07 12:29:42 593

原创 【自然语言处理|迁移学习-02】:fastText文本分类

介绍使用fasttext工具进行文本分类流程以及模型调优思路

2024-12-07 12:06:19 1078

原创 【自然语言处理|迁移学习-01】:fastText介绍

介绍fasttext得架构以及fasttext训练速度快得原因

2024-12-07 00:53:21 706

原创 【自然语言处理|Transformer框架-08】:Transformer相关问题(持续更新...)

前面的内容主要介绍了Transformer架构的主要实现流程,本篇文章主要用于整理与Transformer相关的问题

2024-12-05 00:43:14 941

原创 【自然语言处理|Transformer框架-07】:输出部分和Transformer模型的构建

介绍将Transformer的输入部分、编码器部分、解码器部分和输出部分组成Transformer模型的过程

2024-12-05 00:18:06 320

原创 【自然语言处理|Transformer架构-06】:编码部分实现

介绍Transformer架构中编码器和解码器的实现

2024-12-04 22:01:46 269

原创 【自然语言处理|Transformer框架-05】:前馈全连接层、规范化层和子层连接结构

介绍Transformer架构中的前馈全连接层、规范化层和子层连接结构的原理及实现

2024-12-04 09:55:17 887

原创 【自然语言处理|Transformer框架-04】:自注意力机制以及多头注意力机制

介绍自注意力机制和多头注意力机制在Transformer框架中的应用

2024-12-04 08:28:48 1046

原创 【自然语言处理|Transformer框架-03】:掩码张量

介绍Transformer框架中掩码张量

2024-12-03 22:41:22 501

原创 【自然语言处理|Transformer框架-02】:输入部分实现

介绍Transformer框架的输入部分结构、位置编码层原理以及代码实现

2024-12-03 10:34:04 975

原创 【自然语言处理|Transformer框架-01】:Transformer背景介绍及其架构

介绍Transformer框架的背景以及总架构图

2024-12-03 00:02:26 1190

原创 【自然语言处理|注意力机制-05】:模型预测

介绍了英译法案例中模型评估方法以及Attention张量图绘制

2024-12-02 22:01:51 953

原创 【自然语言处理|注意力机制-04】:英译法案例-模型构建及训练

介绍自然语言处理中编码器、解码器、加入attention机制的解码的代码编写;以及训练函数的编写

2024-12-02 20:46:26 286

原创 【自然语言处理|注意力机制-03】:英译法案例 - 案例介绍及数据处理

采用seq2seq架构以及注意力机制实现英译法案例,本篇文章对案例进行了简单介绍以及对文本数值化的方法进行了介绍

2024-11-30 21:24:39 721

原创 【自然语言处理|注意力机制-02】Seq2Seq架构中的注意力机制

介绍seq2seq架构中在解码器部分使用注意力机制的流程

2024-11-30 20:01:08 1031

原创 【自然语言处理|注意力机制-01】:注意力机制介绍

介绍注意力机制的概念,从感性的角度首先认识注意力机制是什么,有什么作用.

2024-11-30 15:35:37 869

原创 【模型训练操作】后台进程方式训练模型

介绍在服务器后台训练模型并产看日志的方式

2024-11-29 12:10:01 341

原创 【自然语言处理|RNN-03】:人名分类器案例

通过人名分类任务,将RNN的整个流程串联起来

2024-11-29 11:39:49 821

原创 【自然语言处理|RNN-02】:LSTM和GRU模型

介绍了传统RNN的变体模型LSTM和GRU模型

2024-11-29 09:03:01 1213

原创 【自然语言处理|RNN-01】:RNN模型

介绍RNN模型的内部结构以及API,详细分析了RNN模型的参数

2024-11-29 00:23:36 1303

原创 【自然语言处理|文本预处理-05】:文本特征处理和文本增强

介绍自然语言处理中文本特征处理的方式和文本增强方法

2024-11-28 21:46:09 622

原创 【自然语言处理|文本预处理-04】:文本数据分析

介绍自然语言处理中进行文本数据分析时常用的方法

2024-11-28 21:14:04 1111

原创 【自然语言处理|文本预处理-03】:文本张量表示

介绍自然语言处理中文本张量化的原理及方法

2024-11-27 10:08:32 1232

原创 【自然语言处理|文本预处理-02】:文本预处理基本方法

介绍自然语言处理中的文本预处理的基本方法:分词、命名实体识别、词性标注

2024-11-26 14:39:34 914

原创 【自然语言处理|文本预处理-01】:文本预处理概述

介绍文本预处理的基本概念和主要环节

2024-11-26 12:36:08 361

原创 【自然语言处理-01】:自然语言处理简介

介绍NLP概念以及发展历程

2024-11-26 11:40:23 352

原创 【循环神经网络-03】:文本生成案例

使用RNN算法实现文本生成案例

2024-11-24 10:18:49 661

原创 【循环神经网络-02】:循环网络层

介绍循环网络的原理以及基础使用

2024-11-24 09:07:40 1026

原创 【循环神经网络-01】:RNN概述及词嵌入层

介绍RNN概念和词嵌入层

2024-11-24 08:21:00 666

原创 【卷积神经网络-04】:图像分类案例

用卷积神经网络实现图像分类

2024-11-24 03:12:18 503

原创 【卷积神经网络-03】:池化层

介绍了池化层的概念、作用、计算方式以及API使用

2024-11-24 02:53:17 590

原创 【卷积神经网络-02】:卷积层

介绍卷积计算过程及API的使用

2024-11-24 02:36:50 674

原创 【卷积神经网络-01】:CNN概述及图像基础知识

介绍CNN的基本概念以及图像的理解

2024-11-24 02:00:23 379

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除