
-1
很久之前的
萧子赢
好运lian'lianlmlm
展开
-
dynamic_rnn
from __future__ import print_functionimport tensorflow as tfimport random生成数据# ====================# TOY DATA GENERATOR# ====================class ToySequenceData(object): """ Generate sequence of data with dynamic length. This class gene原创 2020-10-30 15:09:00 · 210 阅读 · 0 评论 -
Bi_directional_rnn
数据集from __future__ import print_functionimport tensorflow as tffrom tensorflow.contrib import rnnimport numpy as np# Import MNIST datafrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("/tmp/data/", one_hot原创 2020-10-30 09:36:12 · 306 阅读 · 0 评论 -
recurrent_network_tf1.0
数据集from __future__ import print_functionimport tensorflow as tffrom tensorflow.contrib import rnn# Import MNIST datafrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("/tmp/data/", one_hot=True)参数设置# Trai原创 2020-10-30 09:23:20 · 92 阅读 · 0 评论 -
TF1.0_neural_network_eager_api
参考TensorFlow引入了动态图机制Eager Execution原创 2020-10-27 11:17:20 · 161 阅读 · 0 评论 -
TF1.0_convolution-network_笔记
逐句:with tf.variable_scope('ConvNet', reuse=reuse):通俗理解tf.name_scope()、tf.variable_scope()// An highlighted blockvar foo = 'bar';// An highlighted blockvar foo = 'bar';// An highlighted blockvar foo = 'bar';// An highlighted blockvar foo = '原创 2020-10-15 15:43:11 · 182 阅读 · 0 评论 -
TF1.0_Convolutional-Neural-Network-raw_笔记
逐句x = tf.nn.conv2d(x, W, strides=[1, strides, strides, 1], padding='SAME')函数定义:TensorFlow: tf.nn.conv2d()tf.nn.conv2d( input, filter, strides, padding, use_cudnn_on_gpu=True, data_format='NHWC', dilations=[1, 1, 1, 1],原创 2020-10-12 15:42:20 · 185 阅读 · 0 评论 -
TF1.0_Multilayer-Perceptron_笔记
123原创 2020-10-09 11:00:16 · 175 阅读 · 0 评论 -
TF1.0_Auto Encoder Example_笔记
逐句mnist = input_data.read_data_sets("/tmp/data/", one_hot=True)mnist数据集不能直接使用,需要通过input_data模块进行初始化,否则会报mnist is not definedfrom tensorflow.examples.tutorials.mnist import input_dataX = tf.placeholder("float", [None, num_input])在Tensoflow2.0以前,还是静原创 2020-10-06 11:29:18 · 175 阅读 · 0 评论 -
TF2.0环境
TensorFlow ,CUDA,cuDNN版本对应https://tensorflow.google.cn/install/source_windowsCUDA安装:下载:https://link.zhihu.com/?target=https%3A//developer.nvidia.com/cuda-toolkit-archive安装:1.没有不勾2.当前版本(后)大于最新版本(前)不勾测试:...原创 2020-09-15 16:56:42 · 232 阅读 · 0 评论 -
2020-09-28-正确率计算
正确率计算tf.math.top_kimport tensorflow as tfimport osos.environ['TE_CPP_MIN_LOG_LEVEL'] = '2'tf.random.set_seed(2467)def accuracy(output, target, topk=(1,)): maxk = max(topk) batch_size = target.shape[0] pred = tf.math.top_k(output, maxk)原创 2020-09-28 08:36:13 · 214 阅读 · 0 评论 -
练习0:前向传播
深度学习–前向传播练习0时间:2020.9.24数据:处理,iterw1,w2,w3,b1,b2,b3…epoch, step,tf.GradientTape():w1,w2,w3,b1,b2,b3,loss更新import tensorflow as tffrom tensorflow import kerasfrom keras import datasetsimport os(x, y), _ = datasets.mnist.load_data()x = tf.c原创 2020-09-24 22:24:56 · 114 阅读 · 0 评论 -
练习6:ResNet练习
深度学习–ResNet练习练习56时间:2020.8.22昂:BasicBlock:conv1 + bn1 + reluconv2 + bn2Identity 注意维度一致build_resblock:第一个BasicBlock: 给一个下采样功能其他的BasicBlock: 不进行下采样功能ResNet:一个根部: 第一层resblock堆叠: 根据不同的ResNet给予不同的layer_dims进行堆叠分类的fc: h, w 未知搞个均值拉好原创 2020-08-22 01:04:07 · 353 阅读 · 0 评论 -
练习5:CIFAR100练习
深度学习–CIFAR100练习练习5时间:2020.8.20昂:数据预处理网络构建损失函数计算梯度更新参数训练测试网络:Something:数据集链接:http://www.cs.toronto.edu/~kriz/cifar-100-python.tar.gz还是少了点什么[待补]不急代码:import tensorflow as tffrom tensorflow.keras import layers, optimizers, datasets, Sequent原创 2020-08-19 16:35:35 · 1118 阅读 · 0 评论 -
练习4:CIFAR10自定义网络练习
深度学习–CIFAR10自定义网络练习练习4时间:2020.8.19昂:数据预处理自定义网络层自定义网模型模型配置与训练模型保存和加载Something:数据集下载慢:下载器链接:https://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz文件位置:C:\Users\用户名.keras\datasets修改文件名(因为它改了):cifar-10-batches-py.tar.gz似乎少了点什么,不急[待补]代码impo原创 2020-08-19 12:35:28 · 204 阅读 · 0 评论 -
练习3:手写数字
深度学习-手写数字(层)练习3时间:2020.8.18解析:数据预处理; 模型建立; 梯度计算; 更新参数; loop; test测试注意数据计算后是啥Something:iter() next()tf.losses.MSE() 均方误差tf.losses.categorical_crossentropy() 交叉熵损失好像又少了点什么东西[待补]…代码:import tensorflow as tffrom tensorflow import kerasfrom t原创 2020-08-18 20:24:37 · 354 阅读 · 0 评论 -
练习2:手写数字体验
深度学习–手写数字体验练习2时间:2020.8.18解析:数据集和模型准备计算loss, out --> y,根据loss,计算梯度来更新参数自动求导:tape.gradient(loss, 优化参数)自动更新:optimizerloop:循环一次数据集训练进行一次训练:epoch一次batch进行一次训练:stepSomething:optimizers.SGD随机梯度下降优化器似乎少了点什么…昂,不急代码:import osimport tensorflow原创 2020-08-18 12:55:43 · 210 阅读 · 0 评论 -
练习1:线性回归(tf)
深度学习–线性回归练习练习1时间:2020.8.17解析:代码:import numpy as np# y = wx + b#第一步: 计算lossdef compute_error_for_line_given_points(b, w, points): totalError = 0 for i in range(0, len(points)): x = points[i, 0] y = points[i, 1] #com原创 2020-08-18 00:10:50 · 168 阅读 · 0 评论