K.reshape & K.permute_dimensions

本文通过实例演示了如何使用Keras中的K.reshape和K.permute_dimensions函数对矩阵进行重塑和维度置换,揭示了矩阵操作的基本原理及逆操作的正确方式。

对K.reshape 和 K.permute_dimensions 进行简单的测试和理解

代码顺序如下:

  • 定义一个shape=(1, 3, 4)的变量qw
  • qw reshape 为 shape=(-1, 3, 1, 4) 的变量
  • 将qw 进行装置
  • 将qw 还原到reshape后
from keras import backend as K 

qw=K.constant([
    [
        [1,2,3,4],
        [5,6,7,8],
        [9,10,11,12]

    ]
])

print(qw.shape)
print(K.eval(qw))

print("="*50)
qw=K.reshape(qw, (-1, K.shape(qw)[1], 1, 4))
print(qw.shape)
print(K.eval(qw))

print("="*50)
qw=K.permute_dimensions(qw, (0, 2, 1, 3))
print(qw.shape)
print(K.eval(qw))

print("="*50)
qw=K.permute_dimensions(qw, (0, 2, 1, 3))
print(qw.shape)
print(K.eval(qw))

运行结果:

总结:可以发现,在对矩阵进行置换后,若想得到置换前的矩阵,则需要使用相同的置换规则。相当“负负得正”的理解。

 

请详细解释下面这段代码:作者:BINGO Hong 链接:https://zhuanlan.zhihu.com/p/61795416 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 def make_model(self): x = Input(shape=(self.P, self.m)) # CNN,普通卷积,无casual-dilation c = Conv1D(self.hidC, self.Ck, activation='relu')(x) c = Dropout(self.dropout)(c) # RNN, 普通RNN r = GRU(self.hidR)(c) r = Lambda(lambda k: K.reshape(k, (-1, self.hidR)))(r) r = Dropout(self.dropout)(r) # skip-RNN,以skip为周期的RNN,需要对数据进行变换 if self.skip > 0: # c: batch_size*steps*filters, steps=P-Ck s = Lambda(lambda k: k[:, int(-self.pt*self.skip):, :])(c) s = Lambda(lambda k: K.reshape(k, (-1, self.pt, self.skip, self.hidC)))(s) s = Lambda(lambda k: K.permute_dimensions(k, (0,2,1,3)))(s) # 这里设置时间步长为周期数目self.pt,时序关系以周期间隔递进,输入维度为self.hidC s = Lambda(lambda k: K.reshape(k, (-1, self.pt, self.hidC)))(s) s = GRU(self.hidS)(s) s = Lambda(lambda k: K.reshape(k, (-1, self.skip*self.hidS)))(s) s = Dropout(self.dropout)(s) # 合并RNN及Skip-RNN r = concatenate([r,s]) res = Dense(self.m)(r) # highway,模型线性AR if self.hw > 0: z = Lambda(lambda k: k[:, -self.hw:, :])(x) z = Lambda(lambda k: K.permute_dimensions(k, (0,2,1)))(z) # hw设置以7天(self.hw=7)的值做为特征,利用Dense求预测量 z = Lambda(lambda k: K.reshape(k, (-1, self.hw)))(z) z = Dense(1)(z) z = Lambda(lambda k: K.reshape(k, (-1, self.m)))(z) res = add([res, z]) if self.output != 'no': res = Activation(self.output)(res) model = Model(inputs=x, outputs=res) model.compile(optimizer=Adam(lr=self.lr, clipnorm=self.clip), loss=self.loss) # print(model.summary()) # plot_model(model, to_file="LSTNet_model.png", show_shapes=True) return model
07-10
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值