
深度学习
文章平均质量分 95
狂放不羁霸
学习令人大脑颤抖 ^_^
展开
-
组会 | SNN 的 BPTT(backpropagation through time)
1 神经学基础知识 1.1 神经元 1.2 神经元之间的连接 1.3 膜电位 1.4 去极化与超极化 2 SNN 2.1 LIF 模型 2.2 BPTT 中存在的问题 2.3 梯度爆炸或消失问题原创 2025-01-11 18:56:40 · 992 阅读 · 0 评论 -
组会 | DenseNet
1 研究背景 1.1 提出的动机 1.2 同期的模型 2 网络模型 2.1 模型架构 2.2 模块与参数 2.3 瓶颈层和压缩率 2.4 小结 3 实验结果 4 优点与缺点 4.1 DenseNet 的优点 4.2 DenseNet 的缺点原创 2025-01-04 21:01:25 · 1117 阅读 · 0 评论 -
YOLOv8 | 训练自定义数据集
1 处理数据集 1.1 数据集格式介绍 1.2 划分数据集 1.3 在 YOLOv8 中配置数据集 2 训练 YOLOv8 模型 2.1 模型训练代码 2.2 开启 TensorBoard原创 2024-12-23 20:52:23 · 1310 阅读 · 2 评论 -
组会 | 大语言模型 + LoRA
1 大语言模型概述 1.1 模型的架构 1.2 模型的细节:标记化和嵌入化 1.3 模型的核心 2 多头注意力机制 3 LoRA 概述 3.1 冻结部分模型参数 3.2 低秩适配(LoRA) 3.2.1 核心工作原理:冻结模型参数 3.2.2 核心工作原理:添加低秩权重矩阵原创 2024-11-22 21:55:13 · 1390 阅读 · 0 评论 -
组会 | Transformer 中有意思的部分
1 层归一化 2 前馈子层 3 多头注意力机制 4 Vision Transformer (ViT) 4.1 提出背景 4.2 模型结构 4.3 [class] 标志位原创 2024-11-10 19:23:22 · 839 阅读 · 0 评论 -
组会 | Attention 中有意思的部分
1 词向量 2 通过自注意力机制调整词向量 3 缩放点积注意力 4 Transformer 可学习参数原创 2024-11-09 18:44:44 · 1030 阅读 · 0 评论 -
组会 | 一篇关于 RNN 为什么使用 tanh 的知乎神文(自存)
1 RNN 为什么存在梯度消失/爆炸问题?2 RNN 为什么使用 tanh 作为激活函数?原创 2024-10-25 15:12:32 · 1174 阅读 · 0 评论 -
YOLOv8 | Windows 系统下从零开始搭建 YOLOv8 项目环境
1 下载 Anaconda32 在 Anaconda3 中搭建环境2.1 打开 Anaconda3 终端2.2 创建 yolov8 虚拟环境2.3 安装 Pytorch2.3.1 激活 yolov8 环境2.3.2 查看显卡信息2.3.3 安装 Pytorch2.4 测试环境是否搭建成功3 搭建 YOLOv8 项目环境3.1 下载 YOLOv8 源码3.2 用 Pycharm 打开项目3.3 配置项目解释器3.4 使用 pip 本地安装 YOLOv8原创 2024-10-24 19:39:21 · 2361 阅读 · 0 评论 -
组会 | 反向传播的理论推导
1 正向传播 2 反向传播 2.1 输出层神经元的梯度 2.2 前一层神经元的梯度 2.3 权重的梯度 3 算法举例 3.1 前向传播 3.2 反向传播 3.3 梯度更新原创 2024-10-12 15:22:24 · 814 阅读 · 0 评论 -
深度学习 | CNN 基本原理
1 什么是 CNN 2 输入层 3 卷积层 3.1 卷积操作 3.2 Padding 零填充 3.3 处理彩色图像 4 池化层 4.1 池化操作 4.2 池化的平移不变性 5 全连接层 6 输出层原创 2024-07-16 22:58:47 · 2571 阅读 · 3 评论 -
深度学习 | Transformer 基本原理
1 为什么使用 Transformer? 2 Attention 注意力机制 2.1 什么是 Q、K、V 矩阵? 2.2 Attention Value 计算流程 2.3 Self-Attention 自注意力机制 2.3 Multi-Head Attention 多头注意力机制 3 Transformer 模型架构 3.1 Position原创 2024-07-13 18:04:35 · 1749 阅读 · 4 评论 -
RNN:Long Short-term Memory(中)
1 LSTM 的简图2 LSTM 的整体结构2.1 结构图2.2 流程图3 举个例子3.1 简单看看3.2 代入 LSTM4 Original Network v.s. LSTM5 细看 LSTM原创 2024-01-19 19:24:05 · 1387 阅读 · 2 评论 -
RNN:Recurrent Neural Network(上)
1 为什么提出 RNN1.1 什么是 Slot Filling1.2 为什么 FFN 做不好 Slot Filling1.3 为什么 RNN 能做好 Slot Filling2 RNN 的整体结构3 更高级的 RNN 结构3.1 Deep RNN3.2 Elman Network & Jordan Network3.3 Bidirectional RNN原创 2024-01-19 16:06:26 · 1148 阅读 · 0 评论 -
CNN:Convolutional Neural Network(下)
1 CNN 学到的是什么1.1 Convolution 中的参数1.2 FFN 中的参数1.3 Output2 Deep Dream3 Deep Style4 More Application4.1 AlphaGo4.2 Speech4.3 Text原创 2024-01-15 11:53:20 · 1114 阅读 · 0 评论 -
CNN:Convolutional Neural Network(上)
1 为什么使用 CNN 处理图像2 CNN 的整体结构2.1 Convolution2.2 Colorful image3 Convolution v.s. Fully Connected4 Max Pooling5 Flatten6 CNN in Keras原创 2024-01-14 21:50:32 · 1400 阅读 · 1 评论