
深度学习-tensorflow
xckkcxxck
这个作者很懒,什么都没留下…
展开
-
tensorflow 手动下载mnist数据集及报错的解决方法
在tensorflow中用:from tensorflow.examples.tutorials.mnist import input_datamnist=input_data.read_data_sets('MNIST_data',one_hot=True)下载mnist数据集可能会出现url失效的情况,这种情况下可以替换tensorflow中的input_data脚本文件,在这原创 2017-08-14 09:42:04 · 2245 阅读 · 1 评论 -
Tensorflow学习一:基本参数和方法整理
一:计算图的知识:1.tensorflow会将定义的计算转化为计算图上的结点。2.tf会维护一个默认的计算图,通过 tf.get_default_graph 可以得到当前默认的计算图。 假设张量 a,通过a.graph 可以得到张量所属的计算图。3. tf可以通过 tf.Graph函数生成新的计算图, 不同的计算图上的张量和运算不会共享。二:张量:多维数组1.张量不保存数字,保存的是得到...原创 2018-04-21 11:02:37 · 349 阅读 · 0 评论 -
Tensorflow学习五:卷积神经网络
一:tf中的卷积层:#通过tf.get_variable的方式创建过滤层的权重变量和偏置项变量。是一个四维矩阵,前面两个维度代表了#过滤器的尺寸,第三个维度代表当前层的深度,第四个代表过滤器的深度filter_weight = tf.get_variable(name='weight', shape=[5,5,3,16], initializer=tf.truncated_normal_i原创 2018-04-22 19:45:17 · 297 阅读 · 2 评论 -
Tensorflow学习四:变量管理
引言: tf提供了一种通过变量名称来创建或者获取一个变量的机制。通过这个机制,在不同的函数中可以直接通过变量的名字来获取变量,而不需要将变量通过参数的形式到处传递。tf中通过变量名字获取变量的机制主要是通过tf.get_variable 和tf.variable_scope 函数实现的。tf.get_variable 和 tf.Variable :原创 2018-04-22 15:02:25 · 207 阅读 · 0 评论 -
Tensorflow学习三:神经网络的优化问题
反向传播: 梯度下降算法主要用于优化单个参数的取值,我在之前的文章记录过。而反向传播给出了一个高效的方式在所有的参数上使用梯度下降算法,从而使神经网络模型在训练集上的损失函数尽可能小。这里不介绍反向传播的具体实现,只知道反向传播可以计算损失函数对每一个参数的梯度,再根据梯度和学习率使用梯度下降算法更新每一个参数。需要注意的是,反向传播算法并不能保证被优化的函数达到全局最优解,在原创 2018-04-22 09:54:04 · 600 阅读 · 0 评论 -
使用tensorflow实现逻辑回归算法
本文参考《tensorflow实战机器学习指南》 # -*- coding: utf-8 -*- """ Created on Sat Feb 24 20:55:02 2018 @author: www """ #用tensorflow实现逻辑回归算法 #使用鸢尾花数据集 import pandas as pd import numpy as np import tens...原创 2018-02-25 11:06:17 · 874 阅读 · 1 评论 -
用tensorflow实现弹性网络回归算法
本文参考书《Tensorflow机器学习实战指南》#用tensorflow实现弹性网络算法(多变量)#使用鸢尾花数据集,后三个特征作为特征,用来预测第一个特征。#1 导入必要的编程库,创建计算图,加载数据集import matplotlib.pyplot as pltimport tensorflow as tfimport numpy as npfrom sklearn im原创 2018-01-06 23:08:12 · 1579 阅读 · 0 评论 -
用Tensorflow实现线性回归算法
本文参考自《Tensorflow机器学习实战机器学习指南》 使用的数据集是鸢尾花数据集,但是只是取它的两个特征,一个作为x,一个作为y,来拟合一条直线。#用tensorflow实现线性回归算法(单变量)#1 导入必要的编程库,创建计算图,加载数据集import matplotlib.pyplot as pltimport tensorflow as tfimport numpy as原创 2018-01-06 21:47:18 · 969 阅读 · 0 评论 -
Tensorflow使用流程小例子 ——反向传播
总结下来,流程有以下几点:1:生成数据2:初始化占位符和变量3:创建损失函数4:定义一个优化器算法5:最后,通过迭代样本数据,更新变量原创 2017-12-02 12:12:47 · 1605 阅读 · 0 评论 -
tensorflow 实现 正规方程求解线性回归
正规方程是用一个方程去求解线性回归问题,是最小二乘法的矩阵形式。在吴恩达的机器学习课程上也有提及。这里写一个简单的用tensorflow实现的方法。参考《Tensorflow机器学习实战指南》# -*- coding: utf-8 -*-"""Created on Sat Dec 9 20:16:39 2017@author: www"""import tensorflow原创 2017-12-09 20:47:19 · 1191 阅读 · 0 评论 -
Tensorflow学习二:神经网络用于分类和回归的损失函数
引言: 对于二分类问题,一般会将预测结果经过一个非线性变换缩小到0到1之间,并设置一个阀值,比如0.5,小于0.5便是0,大于0.5便是1。但是这种做法对于多分类是不适用的。交叉熵: 通过神经网络解决多分类的方法是设置n个输出节点,n代表类别数。对于每一个样例,神经网络会得到一个n维数组做为输出结果。数组中的每一个维度代表对应的类别。理想情况下,如果一个样本属于k,那么这个类...原创 2018-04-21 16:01:24 · 6691 阅读 · 0 评论