1. result
Gradient checking: 7.4115e-010
Accuracy: 92.640%
2. code
softmaxCost
%hypothesis
M = theta * data;
M = exp(bsxfun(@minus, M, max(M)));
M = bsxfun(@rdivide, M, sum(M));
%cost
cost = -sum(sum(groundTruth .* log(M))) / size(data, 2);
cost = cost + 0.5 * lambda * sum(sum(theta .* theta));
%grad
thetagrad = -(groundTruth - M) * data' / size(data, 2)';
thetagrad = thetagrad + lambda * theta;
softmaxPredict
M = theta * data;
[M, pred] = max(M);
本文深入探讨了深度学习的基础概念,详细介绍了神经网络的结构、训练过程以及常见算法,包括卷积神经网络(CNN)、循环神经网络(RNN)、生成对抗网络(GAN)等。同时,还讨论了深度学习在实际应用中的优势与挑战。
2426

被折叠的 条评论
为什么被折叠?



