一、建立一个简单的卷积神经网络
如上图所示,一个简单的卷积神经网络由卷积层,池化层,激活层,全连接层组成。设计一个好的卷积神经网络不是简单的事情,包括卷积核大小的选择,比如1,3,5,7等几个常用的大小,还有卷积核的个数的选择,比如1,2,4,16,32等等,还有就是全连接层的激活函数的选择等。下面我们就来简单看看卷积核个数和激活函数的选择。
二、卷积核个数的选择
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
import matplotlib.pyplot as plt
import csv
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
def weight(shape):
init = tf.random_normal(shape=shape, stddev=0.1)
return tf.Variable(init)
def baise(shape):
init = tf.random_normal(shape=shape, stddev=0.00001)
return tf.Variable(init)
def conv(x, w, k, b):
return tf.nn.relu(tf.nn.bias_add(tf.nn.conv2d(x, w, strides=[1, k, k, 1], padding="VALID"), b))
def max_pool

本文介绍了卷积神经网络的基本结构,包括卷积层、池化层、激活层和全连接层。讨论了卷积核大小和数量以及全连接层激活函数选择的影响。实验表明,卷积核数量增加能提升准确率,但会降低计算速度。常见的激活函数配置是卷积层使用ReLU,全连接层使用linear,输出层使用softmax。
最低0.47元/天 解锁文章
686

被折叠的 条评论
为什么被折叠?



