def forward_propagate(w,b,X,Y): #正向传播函数
m=X.shape[1]
A=sigmoid(np.dot(w.T,X)+b) #激活函数,w是权重,b是偏置
cost = -1/m*np.sum(Y*np.log(A)+(1-Y)*np.log(1-A)) #计算损失
dw = np.dot(X,(A-Y).T/m) #权重计算
db = np.sum(A-Y)/m #偏值计算
# 从数组的形状中删除单维条目,即把shape中为1的维度去掉
cost = np.squeeze(cost) #返回损失
grads = {'dw':dw,'db':db} #梯度
return grads,cost

本文详细解析了深度学习中神经网络的正向传播过程,包括激活函数、损失函数的计算以及梯度的求解。通过具体公式展示了权重和偏置的更新方式,是理解深度学习算法不可或缺的内容。
734

被折叠的 条评论
为什么被折叠?



