
Lua
文章平均质量分 73
Hungryof
不回答任何问题!
展开
-
学习Torch框架的该看的资料汇总(不断更新)
学习torch框架应该看的资料原创 2016-07-22 11:09:09 · 7886 阅读 · 1 评论 -
Torch7学习(七)——Neural-Style代码解析
neural style代码解析Torch的框架原创 2016-07-26 16:52:29 · 11535 阅读 · 4 评论 -
Torch7入门续集(七)--- clone与net替换某一层
clone尴尬,我们都知道torch中为了加快速度,直接=其实是引用,并不开辟新的空间。那么我们绝大部分情况下,都是希望开辟新的空间的,即我们需要加clone()。 加clone的情况: 当且仅当变量与变量之间赋值时,可以加上clone,特别是当一个变量要分别赋值给两个变量时,一般都要加上。其他情况一般不用加 比如下面函数是我要检查某一层的梯度:function check_gradient(原创 2017-04-20 14:15:45 · 2444 阅读 · 0 评论 -
Torch7入门续集(五)----进一步了解optim
总说现在看以前写的入门续集,觉得写的好烂,但我不想改了。在torch7学习(六)稍微提到了optim,觉得写的很不清楚,所以有了这篇。 入门续集到了这篇,个人认为看Torch框架的深度学习代码应该没啥大问题了。总览x*, {f}, ... = optim.method(opfunc, x[, config][, state])opfunc: 自定义的闭包,必须包含:我们计算的f 对于优化的参数x原创 2017-03-27 15:08:30 · 3470 阅读 · 1 评论 -
Torch7入门续集补充--- nngraph包的使用
构建方法nngraph包在构建更加复杂的网络极其有用。原创 2017-06-07 19:23:29 · 5589 阅读 · 1 评论 -
Torch7入门续集(一)----- 更加深入理解Tensor
入门续集原创 2017-03-07 22:58:28 · 9367 阅读 · 5 评论 -
lua学习(附加lua调用终端)
变量lua的变量是全局的,即一个文件中的变量所有的文件都可以访问。除非加入local进行限制。 给定2个文件,main.lua和x.lua。-- main.lualocal x = 100-- dofile是进行调用执行外部文件dofile("x.lua")print("main.lua print",x)function foo( x,y ) print("foo",x)en原创 2016-05-25 22:24:35 · 2850 阅读 · 0 评论 -
nngraph的问题解决
在这篇 Torch7入门续集补充— nngraph包的使用 中已经初步了解nngraph, 但是在实际应用中,可能会出现一些问题。这里只知道原因,解决方法比较ugly。node declared on [[c]]:-1_ does not connect to gmodule output在很多情况下,我们可能只想根据特定条件,截取预定义好的部分网络。比如:function defineG_un原创 2017-08-29 11:12:40 · 1414 阅读 · 0 评论 -
Torch7入门续集补充(2)--- 每一层设置不同的学习率(finetuning有用)
设置不同学习率原创 2017-09-14 18:43:23 · 3117 阅读 · 0 评论 -
Torch7入门续集(八)---终结篇----不再写Torch博客了,反正就是难受
这是终篇,记录一些坑吧。以前也记录了一点儿。 Torch代码书写时可能碰到的一些问题 慢慢记录吧,如果心情好的话。第一次更新:2017-4-20原创 2017-04-20 17:14:53 · 5060 阅读 · 3 评论 -
Torch7入门续集(六)----多GPU运行程序 ---- (2018-4-18更新!)
总说更新: 重写多GPU程序示例, 2018-4-18 先感叹一波,我竟然会时隔一年后, 再更新这个, 本来是不想更新的,错了就错了, 根本没人看, 然而网友的评论说出现了问题, 我想还是更新一波吧, 不说了,真要给自己点个赞. Torch的多GPU程序其实并不复杂. 最简单的代码:第一种方法(不推荐)require 'optim'require 'nn'...原创 2017-03-27 22:56:37 · 5949 阅读 · 5 评论 -
Torch7入门续集(四)----利用Table layers构建灵活的网络
入门原创 2017-03-17 09:57:32 · 4030 阅读 · 3 评论 -
Torch7学习(六)——学习神经网络包的用法(4)——利用optim进行训练
总说这篇博客是本系列的最后一篇,着重讲如何利用optim包进行自动挡训练。-- standard training code-- Here let's train XOR net.require 'torch'require 'cunn'require 'cutorch'require 'nn'require 'optim'-- dataset generatelocal minibat原创 2016-07-26 10:36:22 · 6348 阅读 · 1 评论 -
Torch代码书写时可能碰到的一些问题
总说写Lua时经常会碰到一些坑,随手记录,防止一坑不起。更新于2017.2.17原创 2016-12-26 22:52:47 · 5394 阅读 · 0 评论 -
Gram矩阵与卷积网络中的卷积的直观理解
Gram矩阵其实是一种度量矩阵。原创 2017-03-05 13:25:29 · 7952 阅读 · 2 评论 -
Torch7入门续集(二)---- 更好的使用Math函数
Math函数的阅读原创 2017-03-08 16:07:19 · 21181 阅读 · 5 评论 -
Torch7入门续集(三)----Simple Layers的妙用
我已经不太想写Torch的博客了~~没劲。原创 2017-03-13 13:45:35 · 5026 阅读 · 0 评论 -
torch7学习(一)——Tensor
torch7学习(一)——Tensor Torch7学习(二) —— Torch与Matlab的语法对比 Torch7学习(三)——学习神经网络包的用法(1) Torch7学习(四)——学习神经网络包的用法(2) Torch7学习(五)——学习神经网路包的用法(3) Torch7学习(六)——学习神经网络包的用法(4)——利用optim进行训练原创 2016-07-01 16:48:58 · 26911 阅读 · 5 评论 -
Torch7学习(二) —— Torch与Matlab的语法对比
torch与matlab的语法对比,以便更好掌握两门语言。原创 2016-07-24 17:32:21 · 12109 阅读 · 3 评论 -
Torch7学习(三)——学习神经网络包的用法(1)
torch7框架之神经网络训练原创 2016-07-25 11:52:55 · 17352 阅读 · 10 评论 -
Torch7学习(四)——学习神经网络包的用法(2)
总说上篇博客已经初步介绍了Module类。这里将更加仔细的介绍。并且还将介绍Container, Transfer Functions Layers和 Simple Layers模块。Module主要有4个函数。 1. [output]forward(input) 2. [gradInput] backward (input.gradOutput) 以及在后面自动挡训练方式中重载的两个函数原创 2016-07-25 20:11:34 · 9364 阅读 · 0 评论 -
Torch7学习(五)——学习神经网路包的用法(3)
总说这篇博客主要是讲对于只有简单层的神经网络,进行手动挡的训练方法。 以及卷积层模块以及criterion模块。例子Simple Layer的Add层。module = nn.Add(inputDim, scalar)y = torch.Tensor(5)mlp = nn.Sequential()mlp:add(nn.Add(5))function gradUpdate(net,x,y,cri原创 2016-07-25 22:12:59 · 5448 阅读 · 0 评论 -
ubuntu下100%成功安装torch,同时配置cuda和cudnn(不成功,则成仁)
总说这些更新不影响主体。所有更新附加在文章最后。 第一次更新: 内容:添加一些Torch7常用库的安装,时间:2017.3.20 第二次更新:内容:某些torch库无法在线安装,转成离线安装的方法,时间:2017.3.31 第三次更新:内容:针对安装”cutorch”时出错的问题修复。时间:2017.5.11 第四次更新:内容:加入cudnn6.0的安装。 时间:2017.5.19原创 2016-06-01 17:43:10 · 61205 阅读 · 72 评论