
tensorflow快速入手
文章平均质量分 52
本专栏以入门tensorflow为目的,让小白迅速入手深度学习
可我是joker
从基础做起,一步步走向巅峰
展开
-
tensorflow(13)----acc,loss可视化
你在训练的时候看到下面这样的图片是不是感觉不太直观当迭代次数多的时候,前面的loss和accuracy与后面的交织在一起,变化变得不那么直观,看起来会比较麻烦那咱把这东西整成图不就好了,loss变成啥样,accuracy咋变的,一目了然,开整!# history=model.fit(训练集数据,训练集标签,batch_size=,epochs=,validation_split=用作测试数据的比例,validation_data=测试集,# validation_freq=测试频率.原创 2021-12-10 18:35:29 · 1732 阅读 · 0 评论 -
tensorflow(12)---参数提取
上一篇文章简单讲了怎么断点续训,但是有时候吧,想要看看训练过程中那些参数都长啥样,从开始到结束各个参数如何变化,在网络训练过程中只有accuracy和loss可以看到,这时候需要使用参数提取的方法。在上一篇基础上,加入一些新内容import tensorflow as tfimport osfrom tensorflow import kerasimport numpy as np# 设置打印格式,threshold=超过多少不打印,np.inf无限大np.set_printoptio原创 2021-12-10 18:26:20 · 1694 阅读 · 0 评论 -
tensorflow(11)---断点续训
在训练过程中吧,有的时候会出现训练到一半的时候内存不够,或者其他报错,程序中断,或者先训练一小会,之后有时间继续训练,这时候就需要断点续训操作。概念:断点续训的意思是因为某些原因还没有训练完成就被中断,下一次训练可以在上一次的训练基础上继续进行。这种方式对于需要长时间训练的模型而言非常友好在代码实现上,前面内容不变,还是老三样,导入,构建,compileimport tensorflow as tfimport osfrom tensorflow import kerasmni原创 2021-12-10 17:53:16 · 2139 阅读 · 2 评论 -
tensorflow(10)--自制数据集
前面讲了怎么用tensorflow识别一些常用的数据集,但是吧,大部分时候,我们都需要识别自己的数据集,比如你有一万张猫狗图片,这时候就需要把本地的那些照片作为数据集传到网络结构中进行处理,这些自己的图片,叫做自制数据集。这篇文章,咱们用本地的数据集,完成一次识别,我把数据集放在了自己的博客资源里,你们去瞅瞅,应该有。...原创 2021-11-14 16:07:11 · 2889 阅读 · 15 评论 -
tensorflow(9)--识别FASHION数据集
代码如下import tensorflow as tffrom tensorflow import kerasimport matplotlib.pyplot as pltfashion = keras.datasets.fashion_mnist(x_train,y_train),(x_test,y_test) = fashion.load_data()x_train,x_test = x_train/255.0,x_test/255.0model = keras.models.S原创 2021-11-12 21:41:25 · 813 阅读 · 0 评论 -
tensorflow(8)--识别MNIST数据集
上一篇文章讲了如何用keras搭建我们自己的网络,并且讲解了里面的一些常用参数,本篇文章将简短的介绍如何用上一篇文章中的框架识别MNIST数据集。MNIST 数据集已经是一个被”嚼烂”了的数据集, 很多教程都会对它”下手”, 几乎成为一个 “典范”这里我们不太需要去官网下载,我们在第一次使用这个数据集的时候,会自动从官网下载,各位看官先继续往下看。MNIST数据集:提供6万张28*28像素点的0-9手写数字图片和标签,用于训练提供1万张28*28像素点的0-9手写数字图片和标签,用于.原创 2021-11-12 21:35:53 · 1757 阅读 · 4 评论 -
tensorflow(7)---基于keras搭建神经网络模型
官方介绍:Keras 是一个用 Python 编写的高级神经网络 API,它能够以TensorFlow,CNTK, 或者Theano作为后端运行。Keras 的开发重点是支持快速的实验。能够以最小的时延把你的想法转换为实验结果,是做好研究的关键。如果你在以下情况下需要深度学习库,请使用 Keras:允许简单而快速的原型设计(由于用户友好,高度模块化,可扩展性)。 同时支持卷积神经网络和循环神经网络,以及两者的组合。 在 CPU 和 GPU 上无缝运行。Keras 兼容的 Pytho...原创 2021-10-30 17:16:58 · 2546 阅读 · 0 评论 -
tensorflow(6)---基础知识点
在学习tensorflow的过程中,可能会有一些参数需要调整,对应不同的任务需要调整不同的参数,本篇介绍tensorflow构建model过程中可以自行调节的参数。# 目的:学会神经网络优化过程,使用正则化减少过拟合,使用优化器更新网络参数# 预备知识# 神经网络复杂度# 指数衰减学习率# 激活函数# 损失函数# 欠拟合与过拟合# 正则化减少过拟合# 优化器更新网络参数下面直接用代码来讲解需要了解的知识点import tensorflow as tf# tf.where原创 2021-10-29 17:00:43 · 361 阅读 · 0 评论 -
tensorflow(5)---识别鸢尾花数据集
前面说了tensorflow的基础知识,本篇利用前面提到的知识来进行鸢尾花数据集实战话不多说,开整!首先导入相关库# 导入相关库import tensorflow as tf# 调用sklearn中自带iris数据集from sklearn.datasets import load_irisimport matplotlib.pyplot as pltimport numpy as np# 用于切分数据集from sklearn.model_selection import tr原创 2021-10-25 00:42:40 · 1013 阅读 · 0 评论 -
tensorflow(4)---常用函数
上篇文章写了如何生成张量,以及如何将numpy数组转化为tensorflow中tensor,这篇文章我们主要研究tensorflow中常用的一些函数(1)转换数据类型# 常用函数# 强制tensor转换为改数据类型 tf.cast(张量名,dtype=数据类型)# 计算张量维度上元素最小值最大值tf.reduce_min(张量名) tf.reduce_max(张量名)x1 = tf.constant([1.,2.,3.],dtype=tf.float64)print(x1)x2 =原创 2021-10-24 20:24:57 · 1968 阅读 · 0 评论 -
tensorflow(3)---张量生成
tensorflow中的tensor就是张量,是多维数组,多维列表,用阶表示张量维度0阶张量表示标量scalar,一个单独的数,例如1231阶张量表示向量vector,一个一维数组,例如[1,2,3]2阶张量叫做矩阵matrix,一个二维数组,例如[[1,2,3],[4,5,6],[7,8,9]]n阶张量叫做张量tensor,n维数组,t=[[[[....n个]]]]张量表示0-n阶数组tensorflow数据类型:tf.int tf....原创 2021-10-24 11:04:38 · 674 阅读 · 0 评论 -
tensorflow(2)---神经网络构建
神经网络搭建的一般过程为:1.准备数据:采集大量“特征/标签”数据2.搭建网络:搭建神经网络结构3.优化参数:训练网络获取最佳参数(反向传播)4.应用网络:将网络保存为模型,输入新数据,输出分类或预测结果loss=,导数为2*(w+1),w初始值为5,第一次迭代导数grads=2*(5+1)=12,之后以此类推,最终让loss最小,则w趋近于-1,代码实现:import tensorflow as tf# tf.Variable(initializer,name),参数原创 2021-10-24 10:25:06 · 1944 阅读 · 0 评论 -
tensorflow(1)---归一化
(1)归一化是属于预处理阶段的操作(2)归一化所在库sklearn.processing中(3)归一化是对数据中x进行转化,y不动(x为原始数据,y为分类标签)(4)归一化是把数据每列变换到差不多的数量级(5)为什么归一化:以线性回归y=w1*x1+w2*x2为例(不考虑偏置bias),假设x1为年龄(10,20,30,40),x2为收入(10000,20000,30000,40000),此时数量级x2>>x1(远远大于)。y不变,数量级w1>>w2,在梯度下降求原创 2021-10-24 09:29:37 · 3067 阅读 · 0 评论