
深度学习
文章平均质量分 84
介绍深度学习中常用的算法及基本原理
爱学习不掉头发
Passionate about learning new technologies
展开
-
【神经网络基础-09】:正则化(Dropout层使用)
介绍神经网络中的Dropout正则化方法原创 2024-11-23 00:37:40 · 1160 阅读 · 0 评论 -
【神经网络基础-08】:优化方法
介绍神经网络当中几种常用的梯度下降优化算法原创 2024-11-23 00:10:46 · 878 阅读 · 0 评论 -
【自然语言处理|迁移学习-09】:中文句子关系任务
使用迁移学习的方式实现句子关系判断原创 2024-12-09 23:38:52 · 222 阅读 · 0 评论 -
【自然语言处理|迁移学习-08】:中文语料完型填空
介绍完型填空任务中数据集的构建以及使用迁移学习方式完成迁移学习任务原创 2024-12-09 21:51:48 · 221 阅读 · 0 评论 -
【自然语言处理|迁移学习-07】:中文分类
用迁移学习的第二种方式,采用预训练模型+微调的方式实现中文文本分类原创 2024-12-09 20:40:47 · 963 阅读 · 0 评论 -
【自然语言处理|迁移学习-06】:AutoModel处理不同的NLP任务
使用AutoModel实现不同的NLP任务原创 2024-12-09 12:54:31 · 1078 阅读 · 0 评论 -
【自然语言处理|迁移学习-05】:AutoModel加载不同模型
介绍迁移学习中AutoModel对不同任务类型的预训练模型进行加载,针对于不同的任务,其中仍然有很多细节不同,后续进行介绍原创 2024-12-09 11:12:03 · 1034 阅读 · 0 评论 -
【自然语言处理|迁移学习-04】Transformers库介绍以及pipeline的使用
本篇文章简要介绍了transformers库,并对使用pipeline工具处理各种npl任务进行介绍原创 2024-12-09 00:07:55 · 1303 阅读 · 0 评论 -
【自然语言处理|迁移学习-03】:迁移学习概念及常用预训练模型
介绍迁移学习概念和常常见的预训练模型原创 2024-12-08 16:13:53 · 800 阅读 · 0 评论 -
【自然语言处理|迁移学习-03】:fastText词向量迁移
介绍fasttext的词向量迁移方法原创 2024-12-07 12:29:42 · 593 阅读 · 0 评论 -
【自然语言处理|迁移学习-02】:fastText文本分类
介绍使用fasttext工具进行文本分类流程以及模型调优思路原创 2024-12-07 12:06:19 · 1078 阅读 · 0 评论 -
【自然语言处理|迁移学习-01】:fastText介绍
介绍fasttext得架构以及fasttext训练速度快得原因原创 2024-12-07 00:53:21 · 706 阅读 · 0 评论 -
【自然语言处理|Transformer框架-08】:Transformer相关问题(持续更新...)
前面的内容主要介绍了Transformer架构的主要实现流程,本篇文章主要用于整理与Transformer相关的问题原创 2024-12-05 00:43:14 · 941 阅读 · 0 评论 -
【自然语言处理|Transformer框架-07】:输出部分和Transformer模型的构建
介绍将Transformer的输入部分、编码器部分、解码器部分和输出部分组成Transformer模型的过程原创 2024-12-05 00:18:06 · 320 阅读 · 0 评论 -
【自然语言处理|Transformer架构-06】:编码部分实现
介绍Transformer架构中编码器和解码器的实现原创 2024-12-04 22:01:46 · 269 阅读 · 0 评论 -
【自然语言处理|Transformer框架-05】:前馈全连接层、规范化层和子层连接结构
介绍Transformer架构中的前馈全连接层、规范化层和子层连接结构的原理及实现原创 2024-12-04 09:55:17 · 887 阅读 · 0 评论 -
【自然语言处理|Transformer框架-04】:自注意力机制以及多头注意力机制
介绍自注意力机制和多头注意力机制在Transformer框架中的应用原创 2024-12-04 08:28:48 · 1049 阅读 · 0 评论 -
【自然语言处理|Transformer框架-03】:掩码张量
介绍Transformer框架中掩码张量原创 2024-12-03 22:41:22 · 502 阅读 · 0 评论 -
【自然语言处理|Transformer框架-02】:输入部分实现
介绍Transformer框架的输入部分结构、位置编码层原理以及代码实现原创 2024-12-03 10:34:04 · 975 阅读 · 0 评论 -
【自然语言处理|Transformer框架-01】:Transformer背景介绍及其架构
介绍Transformer框架的背景以及总架构图原创 2024-12-03 00:02:26 · 1190 阅读 · 0 评论 -
【自然语言处理|注意力机制-05】:模型预测
介绍了英译法案例中模型评估方法以及Attention张量图绘制原创 2024-12-02 22:01:51 · 953 阅读 · 0 评论 -
【自然语言处理|注意力机制-04】:英译法案例-模型构建及训练
介绍自然语言处理中编码器、解码器、加入attention机制的解码的代码编写;以及训练函数的编写原创 2024-12-02 20:46:26 · 286 阅读 · 0 评论 -
【自然语言处理|注意力机制-03】:英译法案例 - 案例介绍及数据处理
采用seq2seq架构以及注意力机制实现英译法案例,本篇文章对案例进行了简单介绍以及对文本数值化的方法进行了介绍原创 2024-11-30 21:24:39 · 721 阅读 · 0 评论 -
【模型训练操作】后台进程方式训练模型
介绍在服务器后台训练模型并产看日志的方式原创 2024-11-29 12:10:01 · 343 阅读 · 0 评论 -
【循环神经网络-03】:文本生成案例
使用RNN算法实现文本生成案例原创 2024-11-24 10:18:49 · 661 阅读 · 0 评论 -
【循环神经网络-02】:循环网络层
介绍循环网络的原理以及基础使用原创 2024-11-24 09:07:40 · 1026 阅读 · 0 评论 -
【循环神经网络-01】:RNN概述及词嵌入层
介绍RNN概念和词嵌入层原创 2024-11-24 08:21:00 · 666 阅读 · 0 评论 -
【卷积神经网络-04】:图像分类案例
用卷积神经网络实现图像分类原创 2024-11-24 03:12:18 · 503 阅读 · 0 评论 -
【卷积神经网络-03】:池化层
介绍了池化层的概念、作用、计算方式以及API使用原创 2024-11-24 02:53:17 · 590 阅读 · 0 评论 -
【卷积神经网络-02】:卷积层
介绍卷积计算过程及API的使用原创 2024-11-24 02:36:50 · 674 阅读 · 0 评论 -
【卷积神经网络-01】:CNN概述及图像基础知识
介绍CNN的基本概念以及图像的理解原创 2024-11-24 02:00:23 · 379 阅读 · 0 评论 -
【神经网络基础-11】:价格分类案例及网络性能调优
采用神经网络模型实现价格分类的案例原创 2024-11-24 00:49:08 · 838 阅读 · 0 评论 -
【神经网络基础-10】:批量归一化(BN层)
介绍神经网络中BN层的基本概念原创 2024-11-23 00:49:30 · 747 阅读 · 0 评论 -
【神经网络基础-07】:反向传播算法
介绍神经网络中的反向传播算法原创 2024-11-22 22:56:48 · 1255 阅读 · 0 评论 -
【神经网络基础-06】:分类器及损失函数
介绍神经网络中的损失函数原创 2024-11-22 22:07:59 · 859 阅读 · 0 评论 -
【神经网络基础-05】:神经网络计算及参数计算
【代码】【神经网络基础-05】:神经网络计算及参数计算。原创 2024-11-22 18:42:04 · 477 阅读 · 0 评论 -
【神经网络基础-04】:网络参数初始化
介绍神经网络中权重参数初始化的常用方法原创 2024-11-22 17:29:17 · 520 阅读 · 0 评论 -
【神经网络基础-03】:激活函数
介绍神经网络算法中激活函数的作用及激活函数的选择原创 2024-11-22 17:02:27 · 1109 阅读 · 0 评论 -
【神经网络基础-02】:神经网络构建
介绍神经网络的概念以及用pytorch实现一个简单的神经网络模型原创 2024-11-22 15:24:16 · 284 阅读 · 0 评论 -
【神经网络基础-01】:深度学习概述
简单介绍神经网络的发展历史原创 2024-11-22 14:57:48 · 795 阅读 · 0 评论