深度学习笔记
爱吃蛋炒饭的小老鼠
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
GAN造图MINST手写数字
文章目录1.生成对抗网络介绍2.代码讲解2.1 导入库文件、设定维度和批次2.2 载入数据集2.3 定义鉴别网络2.4 生成网络2.5 定义网络实例、优化器和损失函数2.6 网络训练过程2.7 保存模型2.8 训练结果图1.生成对抗网络介绍生成对抗网络GAN(Generate Adversarial Network)包含两个部分,生成网络和对抗网络。生成网络(generator):给定一个简单的高维的正态分布的噪声向量,通过生成网络的WX+b和卷积池化等操作将其变为一个与输入的真实图片大小相同的矩阵原创 2020-08-18 23:07:34 · 561 阅读 · 0 评论 -
词向量(Word Embedding)和单词预测(Word Prediction)
文章目录一、词变量二、单词预测一、词变量为什么要引入词变量?在分类问题中,采用的编码为one-hot编码,例如总共有五类,属于第二类的标签为(0,1,0,0,0)。但是在一篇文章中,单词的个数有成千上万个,倘若还是用one-hot编码,会消耗过多计算资源。词变量:将单词转化为一个n维向量。根据单词的数量使用torch.nn.Embedding(num_embeddings: int, embedding_dim: int建立num_embeddings个词向量,每个词向量的维度为embeddin原创 2020-08-10 17:14:20 · 1990 阅读 · 0 评论 -
循环神经网络RNN和长短期记忆网络LSTM学习笔记
文章目录一、RNN二、LSTM一、RNN首先思考一个问题,为什么需要RNN?神经网络只能处理孤立的的输入,每一个输入之间是没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的,例如音频、视频、句子等。RNN较神经网络的不同是它将上一时刻的输出作为输入一起传入网络中,从而将输入联系起来。序列依次进入网络中,之前进入序列的数据会保存信息而对后面的数据产生影响。图中X0X1…Xn不是同一时刻输入网络的,图中代表的是时间维度,实际上整个网络只有一个A单元,例如t=原创 2020-08-10 12:20:39 · 1476 阅读 · 0 评论 -
关于难样本三元组损失函数的原理和代码实现详解
文章目录一、难样本三元组损失函数原理1.1 三元组损失函数原理1.2 难样本三元组损失函数原理一、难样本三元组损失函数原理1.1 三元组损失函数原理1.2 难样本三元组损失函数原理二、 难样本三元组损失函数代码实现...原创 2020-07-27 21:20:24 · 7535 阅读 · 5 评论
分享