知识点一(机器学习)

本文深入探讨了ReLU激活函数的作用及其在神经网络中的应用,详细解释了如何使用np.maximum()实现其功能。同时,介绍了权重初始化通常采用正态分布的方式,并通过np.random.normal()函数进行设置。此外,还阐述了数组形状转换的方法,如使用a.reshape()进行重塑,以及矩阵乘法的基本操作,如np.dot()函数的用法。这些基础知识对于理解和构建深度学习模型至关重要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

RELU激活函数:np.maximum(X, 0) 取最大值 如果X>0 值为X 如果X<0 值为0

初始化权重值:np.random.normal(scale=0.01, size=(X, Y)) 取正态分布值 维度为X,Y

转变数组形状:a.reshape(-1, num) 不管列数,num值作为列数变形

例:


矩阵乘法:np.dot(X,Y) X的列数和Y行数相同

例子:

X—>[a,b,c,d,e]

Y—>[[11,12,13],[21,22,23],[31,32,33],[41,42,43],[51,52,53])

结果[a*11+b*21+c*31+d*41+e*51,a*12+b*22+c*32+d*42+e*52,a*13+b*23+c*33+d*43+e*53]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值