
深度学习
yalipf
这个作者很懒,什么都没留下…
展开
-
精确度acc的计算
3层神经网络下手写数字识别import sys, ossys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定import numpy as npimport picklefrom dataset.mnist import load_mnistfrom common.functions import sigmoid, softmax#获取训练数据,训练标签,测试数据,测试标签#x_test.shape为(10000,784),y_test.shape为(原创 2020-07-10 21:18:22 · 3634 阅读 · 0 评论 -
one_hot编码
one_hot编码import numpy as npX=np.array([1,6,3,9,0])T = np.zeros((X.size, 10))#10种分类,故为10for idx, row in enumerate(T): row[X[idx]] = 1 print(T)[[0. 1. 0. 0. 0. 0. 0. 0. 0. 0.] [0. 0. 0. 0. 0. 0. 1. 0. 0. 0.] [0. 0. 0. 1. 0. 0. 0. 0. 0. 0.]原创 2020-07-10 19:55:58 · 211 阅读 · 0 评论 -
梯度下降伪代码
梯度下降伪代码梯度下降Batch Gradient descentStochastic Gradient descentMin Batch Gradient descent梯度下降一般我们不特指的话,梯度下降就是指的是Batch Gradient descent。Batch Gradient descent一般来说,Batch Gradient descent 的伪代码如下:// ...原创 2020-03-23 15:51:20 · 5783 阅读 · 1 评论