- 博客(7)
- 收藏
- 关注
原创 Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models
加拿大高级研究所 Ryan kiros, Ruslan Salakhutdinov, Richard S. Zemel 2014 NIPS deep learning workshop1. 主要思想 学习了一个图片-句子 embedding space,以及一个解码这个空间的语言模型2. embedding space如下图结构所示CNN模型学习图片表示,LSTM的最
2018-01-24 23:57:06
2987
原创 Torch 的几个损失函数
初步了解一下,pytorch里面的损失函数及使用方法。如有不对的地方,欢迎指出。谢谢!1. L1LossInput: X、Y可以是任意形状的输入,X与Y的 shape相同。Output: 标量用途:计算X与Y的差的绝对值, 1/n * (|Xi -Yi|)2. MSELossInput: x, y 任意具有相同shape的tensor。Output: 计算均方差3. CrossEntro...
2018-01-19 21:08:21
30302
2
原创 pytorch的batch normalize
torch.nn.BatchNorm1d()1. BatchNorm1d(num_features, eps = 1e-05, momentum=0.1, affine=True)对于2d或3d输入进行BN。在训练时,该层计算每次输入的均值和方差,并进行平行移动。移动平均默认的动量为0.1。在验证时,训练求得的均值/方差将用于标准化验证数据。num_features:表示输入的特征数。该期望输入的
2018-01-19 09:11:39
6871
原创 Review networks for caption generation
注明:欢迎阅读,讨论。转载及参考请注明出处。谢谢~论文连接:https://pdfs.semanticscholar.org/8736/3aa042cc23bfae3c865d9e8c280f5fe67de7.pdf主要思想:attention机制每次只关注到局部,没有考虑全局因素对预测的影响。该文将feature map作为图片的全局信息,然后通过LSTM单元获得一个比feature map更能
2018-01-18 12:50:23
700
原创 tensorflow 加载预训练模型
加载预训练模型需要具备两个条件:1.框架结构(知道每一层的名字),2. 预训练好的模型文件.ckpt代码如下:
2017-09-15 10:57:31
1808
原创 python中的tile函数和sum函数
numpy.tile(A,reps)定义如下:Construct an array by repeating A the number of times given by reps.Ifrepshaslengthd,theresultwillhavedimensionofmax(d, A.ndim).IfA.ndim ,Aispromotedtobed-dimens
2015-04-22 10:38:03
481
原创 python函数转模块命名
1.工程名2.文件夹名3.模块名4.函数名5.setup中name&py_modules名称工程名,文件夹名,模块名,setup中的名称要一样。
2015-04-17 15:54:13
425
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人