简单的卷积神经网络

本文介绍了卷积神经网络的基本结构,包括卷积层、池化层、激活层和全连接层。讨论了卷积核大小和数量以及全连接层激活函数选择的影响。实验表明,卷积核数量增加能提升准确率,但会降低计算速度。常见的激活函数配置是卷积层使用ReLU,全连接层使用linear,输出层使用softmax。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、建立一个简单的卷积神经网络

如上图所示,一个简单的卷积神经网络由卷积层,池化层,激活层,全连接层组成。设计一个好的卷积神经网络不是简单的事情,包括卷积核大小的选择,比如1,3,5,7等几个常用的大小,还有卷积核的个数的选择,比如1,2,4,16,32等等,还有就是全连接层的激活函数的选择等。下面我们就来简单看看卷积核个数和激活函数的选择。

二、卷积核个数的选择

from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
import matplotlib.pyplot as plt
import csv

mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)


def weight(shape):
    init = tf.random_normal(shape=shape, stddev=0.1)
    return tf.Variable(init)


def baise(shape):
    init = tf.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值