import tensorflow as tf # 输入数据 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) # 定义网络的超参数 learning_rate = 0.0001 training_iters = 200000 batch_size = 128 display_step = 10 # 定义网络的参数 n_input = 784 # 输入的维度(img shape: 28×28) n_classes = 10 # 标记的维度 (0-9 digits) dropout = 0.75 # Dropout的概率,输出的可能性 x = tf.placeholder(tf.float32,shape = [None,n_input],name = 'x-input') y = tf.placeholder(tf.float32,shape =[None,n_classes],name = 'y-input') keep_prob= tf.placeholder(tf.float32) #dropout #构建网络模型,以后都用这种模式写tensorflow #接下来我们定义AlexNet需要用到的卷积、池化和规范化操作。为了简单,我们将这些功能封装起来。代码如下: # 定义卷积操作 def conv2d(name,x,W,b,strides = 1): x = tf.nn.conv2d(x,W,strides=[1,strides,strides,1],padding='SAME') x = tf.nn.bias_add (x,b) return tf.nn.relu(x,name = name) # 使用relu激活函数 # 定义池化层操作 def maxpool2d(name,x,k=2): return tf.nn.max_pool(x,ksize=[1,k,k,1],strides=[1,k,k,1],padding='SAME',name = name ) # 规
tensorflow实现mnist
最新推荐文章于 2024-10-15 15:12:58 发布