
深度学习
文章平均质量分 93
RIKI_1
这个作者很懒,什么都没留下…
展开
-
10_12 机器翻译
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 18:05:07 · 827 阅读 · 0 评论 -
【深度学习笔记】10_10 束搜索beam-search
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 18:04:08 · 1820 阅读 · 0 评论 -
【深度学习笔记】10_11 注意力机制
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 18:00:07 · 890 阅读 · 0 评论 -
【深度学习笔记】10_9 编码器—解码器(seq2seq)
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 17:59:07 · 1081 阅读 · 0 评论 -
【深度学习笔记】10_8 文本情感分类:使用卷积神经网络(textCNN)
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 17:57:12 · 998 阅读 · 0 评论 -
【深度学习笔记】10_7 文本情感分类:使用循环神经网络
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 17:47:26 · 1027 阅读 · 0 评论 -
【深度学习笔记】10_6 求近义词和类比词
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 17:20:45 · 970 阅读 · 0 评论 -
【深度学习笔记】10_5 全局向量的词嵌入(GloVe)
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 17:00:30 · 1092 阅读 · 0 评论 -
【深度学习】10_4 子词嵌入(fastText)
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 16:58:25 · 1000 阅读 · 0 评论 -
【深度学习笔记】10_3 word2vec的pytorch实现
下面定义训练函数。由于填充项的存在,与之前的训练函数相比,损失函数的计算稍有不同。# 使用掩码变量mask来避免填充项对损失函数计算的影响mask.shape[1] / mask.float().sum(dim=1)).mean() # 一个batch的平均lossn += 1现在我们就可以使用负采样训练跳字模型了。原创 2024-03-15 16:44:23 · 1016 阅读 · 0 评论 -
【深度学习笔记】10_2 近似训练approx-training
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 15:38:33 · 935 阅读 · 0 评论 -
【深度学习笔记】10_1 词嵌入word2vec
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-15 15:23:30 · 872 阅读 · 0 评论 -
【深度学习笔记】9_11 样式迁移
下面我们来描述样式迁移的损失函数。它由内容损失、样式损失和总变差损失3部分组成。原创 2024-03-14 17:47:30 · 1056 阅读 · 0 评论 -
【深度学习笔记】9_9 语义分割和数据集
我们通过继承PyTorch提供的Dataset类自定义了一个语义分割数据集类。通过实现函数,我们可以任意访问数据集中索引为idx的输入图像及其每个像素的类别索引。由于数据集中有些图像的尺寸可能小于随机裁剪所指定的输出尺寸,这些样本需要通过自定义的filter函数所移除。此外,我们还对输入图像的RGB三个通道的值分别做标准化。# 本函数已保存在d2lzh_pytorch中方便以后使用""""""])原创 2024-03-14 17:41:35 · 1500 阅读 · 0 评论 -
【深度学习笔记】9_8 区域卷积神经网络(R-CNN)系列
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-14 17:24:58 · 1105 阅读 · 0 评论 -
【深度学习笔记】9_6 目标检测数据集
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-14 17:09:32 · 949 阅读 · 0 评论 -
【深度学习笔记】9_5 多尺度目标检测
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-14 16:21:17 · 1157 阅读 · 0 评论 -
【深度学习笔记】9_4 锚框anchor box
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-14 15:49:56 · 1048 阅读 · 0 评论 -
【深度学习笔记】9_3 目标监测和边界框
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-14 14:19:16 · 950 阅读 · 0 评论 -
【深度学习笔记】9_2 微调
我们使用在ImageNet数据集上预训练的ResNet-18作为源模型。这里指定来自动下载并加载预训练的模型参数。在第一次使用时需要联网下载模型参数。os.environ["TORCH_HOME"]="E:\\models"#修改成你自己需要的目录不管你是使用的torchvision的models还是pretrained-models.pytorch仓库,默认都会将预训练好的模型参数下载到你的home目录下.torch文件夹。你可以通过修改环境变量。原创 2024-03-14 12:26:02 · 992 阅读 · 0 评论 -
【深度学习笔记】9_1 图像增广mage-augmentation
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-13 16:11:20 · 1082 阅读 · 0 评论 -
【深度学习笔记】8_3 自动并行计算
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-13 15:12:35 · 438 阅读 · 0 评论 -
【深度学习笔记】8_2 异步计算
此节内容对应的内容有兴趣的可以去看看原文。今天的计算机是高度并行的系统,由多个CPU核、多个GPU、多个处理单元组成。通常每个CPU核有多个线程,每个设备通常有多个GPU,每个GPU有多个处理单元。总之,我们可以同时处理许多不同的事情,并且通常是在不同的设备上。不幸的是,Python并不善于编写并行和异步代码,至少在没有额外帮助的情况下不是好选择。归根结底,Python是单线程的,将来也是不太可能改变的。因此在诸多的深度学习框架中,MXNet和TensorFlow之类则采用了一种异步编程(asynchron原创 2024-03-13 15:05:25 · 945 阅读 · 0 评论 -
【深度学习笔记】8_1 命令式和符号式混合编程
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-13 14:34:13 · 1002 阅读 · 0 评论 -
【深度学习笔记】7_8 Adam算法
Adam算法在RMSProp算法基础上对小批量随机梯度也做了指数加权移动平均 [1]。下面我们来介绍这个算法。所以Adam算法可以看做是RMSProp算法与动量法的结合。adam算法是一种基于“momentum”思想的随机梯度下降优化方法,通过迭代更新之前每次计算梯度的一阶moment和二阶moment,并计算滑动平均值,后用来更新当前的参数。这种思想结合了Adagrad算法的处理稀疏型数据,又结合了RMSProp算法的可以处理非稳态的数据。原创 2024-03-12 15:28:36 · 1348 阅读 · 0 评论 -
【深度学习笔记】7_7 AdaDelta算法
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-12 15:09:21 · 1056 阅读 · 0 评论 -
【深度学习笔记】7_6 RMSProp算法
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-12 15:01:41 · 1010 阅读 · 0 评论 -
【深度学习笔记】7_5 AdaGrad算法
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-12 14:52:56 · 1054 阅读 · 0 评论 -
【深度学习笔记】7_4 动量法momentum
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-11 23:40:50 · 2016 阅读 · 0 评论 -
【深度学习笔记】7_3 小批量随机梯度下降
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-11 23:15:42 · 1590 阅读 · 0 评论 -
【深度学习笔记】7_2 梯度下降和随机梯度下降
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-10 20:23:25 · 821 阅读 · 0 评论 -
【深度学习笔记】7_1 优化与深度学习
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-10 18:09:25 · 938 阅读 · 0 评论 -
【深度学习笔记】6_10 双向循环神经网络bi-rnn
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-09 20:37:38 · 1086 阅读 · 0 评论 -
【深度学习笔记】6_9 深度循环神经网络deep-rnn
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-09 20:08:19 · 1029 阅读 · 0 评论 -
【深度学习笔记】6_8 长短期记忆(LSTM)
在初始化函数中,长短期记忆的隐藏状态需要返回额外的形状为(批量大小, 隐藏单元个数)的值为0的记忆细胞。下面根据长短期记忆的计算表达式定义模型。需要注意的是,只有隐藏状态会传递到输出层,而记忆细胞不参与输出层的计算。原创 2024-03-09 20:03:48 · 1920 阅读 · 0 评论 -
【深度学习笔记】6_7 门控循环单元(GRU)
下面的代码定义隐藏状态初始化函数。同6.4节(循环神经网络的从零开始实现)中定义的函数一样,它返回由一个形状为(批量大小, 隐藏单元个数)的值为0的Tensor组成的元组。下面根据门控循环单元的计算表达式定义模型。H, = state。原创 2024-03-09 18:29:01 · 1889 阅读 · 0 评论 -
【深度学习笔记】6_6 通过时间反向传播(back-propagation through time)
简单起见,我们考虑一个无偏差项的循环神经网络,且激活函数为恒等映射(ϕxx\phi(x)=xϕxx设时间步ttt的输入为单样本xt∈Rdxt∈Rd,标签为yty_tyt,那么隐藏状态ht∈Rhht∈Rh的计算表达式为htWhxxtWhhht−1htWhxxtWhhht−1其中Whx∈Rh×dWhx∈Rh×d和Whh。原创 2024-03-09 17:01:36 · 1186 阅读 · 0 评论 -
【深度学习笔记】6_5 RNN的pytorch实现
PyTorch中的nn模块提供了循环神经网络的实现。下面构造一个含单隐藏层、隐藏单元个数为256的循环神经网络层rnn_layer。# rnn_layer = nn.LSTM(input_size=vocab_size, hidden_size=num_hiddens) # 已测试与上一节中实现的循环神经网络不同,这里rnn_layer的输入形状为(时间步数, 批量大小, 输入个数)。其中输入个数即one-hot向量长度(词典大小)。此外,rnn_layer作为nn.RNN。原创 2024-03-09 16:39:00 · 1071 阅读 · 0 评论 -
【深度学习笔记】6_4 循环神经网络的从零开始实现
我们根据循环神经网络的计算表达式实现该模型。首先定义函数来返回初始化的隐藏状态。它返回由一个形状为(批量大小, 隐藏单元个数)的值为0的NDArray组成的元组。使用元组是为了更便于处理隐藏状态含有多个NDArray的情况。下面的rnn函数定义了在一个时间步里如何计算隐藏状态和输出。这里的激活函数使用了tanh函数。3.8节(多层感知机)中介绍过,当元素在实数域上均匀分布时,tanh函数值的均值为0。原创 2024-03-08 18:12:59 · 1038 阅读 · 0 评论 -
【深度学习模型】6_3 语言模型数据集
注:本文为开源内容,部分标注了个人理解,仅为个人学习记录,无抄袭搬运意图。原创 2024-03-08 17:37:44 · 1252 阅读 · 0 评论