clone
尴尬,我们都知道torch中为了加快速度,直接=其实是引用,并不开辟新的空间。那么我们绝大部分情况下,都是希望开辟新的空间的,即我们需要加clone()。
加clone的情况:
当且仅当变量与变量之间赋值时,可以加上clone,特别是当一个变量要分别赋值给两个变量时,一般都要加上。其他情况一般不用加
比如下面函数是我要检查某一层的梯度:
function check_gradient(net, layer, input, epsilon)
local N, C, H, W
if input:nDimension() == 3 then
C, H, W = input:size()
N = 1
input = input:view(1,C,H,W)
elseif input:nDimension() == 4 then
N, C, H, W = i

本文探讨了在Torch7中,为何直接修改`net.modules[i]`无法有效替换网络层的原因。讲解了克隆在特定场景下的必要性,并提供了正确的网络层替换方法。强调在更新网络层时,必须使用`replace`函数以确保运行时调用正确的方法。
最低0.47元/天 解锁文章
5796

被折叠的 条评论
为什么被折叠?



