7、神经网络的核心:张量运算与梯度优化

神经网络的核心:张量运算与梯度优化

1. 高维张量的点积运算

在神经网络中,张量运算十分重要。对于高维张量的点积运算,遵循与二维情况类似的形状兼容规则,如:
- (a, b, c, d) • (d,) →(a, b, c)
- (a, b, c, d) • (d, e) →(a, b, c, e)

2. 张量重塑

张量重塑也是关键的张量运算之一。例如在处理数字数据时,我们会对数据进行重塑操作:

train_images = train_images.reshape((60000, 28 * 28))

重塑张量意味着重新排列其行和列以匹配目标形状,重塑后的张量与初始张量的系数总数相同。以下是简单示例:

import numpy as np
x = np.array([[0., 1.],
              [2., 3.],
              [4., 5.]])
print(x.shape)  # 输出 (3, 2)
x = x.reshape((6, 1))
print(x)
# 输出
# array([[ 0.],
#        [ 1.],
#        [ 2.],
#        [ 3.],
#        [ 4.],
#        [ 5.]])
x = x.reshape((2, 3))
print(x)
# 输出
# array([[ 0.,  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值