
深度学习
mercies
这个作者很懒,什么都没留下…
展开
-
networkx官方文档解读之图的创建Creating a graph
networkx中图的使用创建一个图节点边节点和边的使用向图,节点和边添加属性图的属性节点属性边的属性有向图多图图的生成和图的一些操作分析图画图官网链接创建一个图import networkx as nxG = nx.Graph()根据定义,Graph是节点(顶点)以及已标识的节点对(称为边,链接等)的集合。 在NetworkX中,节点可以是任何可哈希对象,例如 文本字符串,图像,XML对象等(注意:python的None对象不应用作节点,因为它确定是否已在许多函数中分配了可选函数参数)节点原创 2020-09-25 10:36:50 · 1865 阅读 · 0 评论 -
mnist数据集的处理和获取load_data,load_data_wrapper
import pickleimport gzipimport numpy as npdef load_data(): f = gzip.open('D://dataset/mnist.pkl.gz', 'rb') training_data, validation_data, test_data = pickle.load(f, encoding='bytes') f...原创 2020-02-28 11:00:16 · 5613 阅读 · 0 评论 -
手写数字识别mnist改进版本实现及代码
手写数字识别,损失函数是CrossEntropyCost,初始化weights,biases是服从于N(0,1/sqrt(x)),其中还有save函数,精度比之前的几种更高import randomimport jsonimport sysimport numpy as npdef sigmoid(z): return 1.0 / (1.0 + np.exp(-z))d...原创 2020-02-27 15:34:06 · 508 阅读 · 0 评论 -
损失函数为CrossEntropyCost + L1的手写数字识别的完整代码实现
损失函数为 CrossEntropyCost+L1import randomimport numpy as npclass Network4(object): def __init__(self, sizes, cost): self.layernumber = len(sizes) self.sizes = sizes self....原创 2020-02-25 18:23:20 · 376 阅读 · 0 评论 -
损失函数为QuatraticCost的手写数字识别神经网络代码与实现
import randomimport numpy as npclass Network(object): def __init__(self, sizes, cost): self.layernumber = len(sizes) self.sizes = sizes self.large_weight() self...原创 2020-02-25 18:16:50 · 209 阅读 · 0 评论 -
损失函数为Cross entropy的手写数字识别神经网络代码与实现
import numpy as npimport randomclass Network2(object): def _init__(self, sizes, cost): self.layernumber = len(sizes) self.sizes = len(sizes) self.defualt_weights() ...原创 2020-02-25 18:13:35 · 476 阅读 · 0 评论 -
CrossEntropyCost+L2 手写数字识的代码实现
本次实验我用的损失函数是CrossEntropyCost+L2import numpy as npimport randomclass Network3(object): def __init__(self, sizes, cost): self.layernumber = len(sizes) self.sizes = sizes ...原创 2020-02-25 18:10:01 · 201 阅读 · 0 评论 -
神经网络中初始化w,b的两种方法
第一种:就是按照标准正态分布的方式初始化N(0,1)def defualt_weights(self): self.biases = [np.random.randn(y, 1) for y in self.sizes[1:]] self.weights = [np.random.randn(y, x) for x, y in zip(se...原创 2020-02-20 21:16:19 · 1696 阅读 · 3 评论 -
随机梯度下降SGD算法原理和实现
backpropagationbackpropagation解决的核心问题损失函数c与w,b求偏导,(c为cost(w,b))整体来说,分两步1.z=w*a’+b2.a=sigmoid(z)其中,a’表示上一层的输出值,a表示当前该层的输出值1,输入x,正向的更新一遍所有的a值就都有了,2,计算输出层的delta=(y-a)点乘sigmoid(z)函数对z的偏导数3,计算输出层之前...原创 2020-02-19 20:44:57 · 4777 阅读 · 0 评论