前言
学那个技术第一步都是helloworld,AI也是一样,我们来吧
1、从感知机说起
这是一个3输入1输出的感知机模型
输入输出之间学到一个线性关系
然后一个神经元激活函数
但这类模型无法学习比较复杂的非线性模型,且只能做2元分类
2、引入多层感知机神经网络
MLP在对感知机进行的改进主要有3点
2.1 隐藏层
主要为了加强表达能力,层数越多自然表达能力高,当然参数也线性增多,训练时、前向时计算量也越大,所以找到一个合适需求的
2.2 多输出
输出层的神经元不止1个,根据需求设计出多个输出,一般的分类回归都是有多个输出的吧
2.3 激活函数的扩展
神经网络中一般使用的sigmoid,softmax,relu,tanx等等,比如一般会用softmax解决分类问题,隐层为了防止梯度消失会选用relu,回归问题会用sigmoid,如:
好了,我们最后看个一般的MLP模型,每层之间的节点做全连接,参数量爆多,难怪要用显卡
3、代码中学习MLP
这里使用tensorflow来做这个HelloWorld(mnist)
因为是HelloWorld所以用一个最简单的1个全连接层10个节点的结构
3.1 构建模型

本文从感知机出发,介绍多层感知机(MLP)的基本概念,包括隐藏层、多输出及激活函数的扩展。通过Tensorflow实现了一个简单的MLP模型,用于MNIST数据集的分类任务,讲解了模型构建、优化过程以及训练验证的步骤,最终展示训练结果和损失函数变化。
最低0.47元/天 解锁文章
2141

被折叠的 条评论
为什么被折叠?



