神经网络与深度学习学习总结(一)

文章介绍了线性回归的概念及其在分类问题中的应用,包括线性二分类和逻辑回归。接着探讨了神经网络的基础,如感知机模型、多层感知机和BP反向传播算法,强调了神经网络在逼近复杂函数和分类问题中的能力。同时指出了神经网络学习的优缺点,如局部最优和收敛速度问题。
部署运行你感兴趣的模型镜像
  1. 线性回归

定义:利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法

学习过程如下:

假定给定样本

构造代价(误差、损失)函数:

目标:找到超平面参数,使得最小,即求解

求解:令

即可得到:

注意,这是解析解, 一步得到, 速度很快(只要维数不高)。 其中

  1. 线性二分类问题

定义:线性分类器则透过特征的线性组合来做出分类决定,以达到此种目的。 简言之, 样本通过直线(或超平面)可分

线性分类与线性回归差别:

输出意义不同: 属于某类的概率<->回归具体值

参数意义不同: 最佳分类直线<->最佳拟合直线

维度不同: 前面的例子中, 一个是一维的回归, 一个是二维的分类

给定样本,注意只能取0,1

构造代价(误差、损失)函数:

注意,这里

上述和回归方程一致, 只是加了S函数, 因此又称作softmax回归

目标:找到超平面参数,使得最小,即求解

采用迭代的方法

即构建一个序列,

最简单的方式:

确定,即确定了如何构建序列

  1. 对数回归与多分类回归

  1. 神经元模型

作用函数

  1. 感知机模型

训练过程

感知机与神经元模型类比

  1. 多层感知机

XOR问题

多层感知机

三层感知器可识别任一凸多边形或无界的凸区域。更多层感知器网络, 可识别更为复杂的图形。

多层感知器网络, 有如下定理:

定理1 若隐层节点( 单元) 可任意设置, 用三层阈值节点的网络, 可以实现任意的二值逻辑函数。

定理2 若隐层节点( 单元) 可任意设置, 用三层S型非线性特性节点的网络, 可以一致逼近紧集上的连续函数或按 范数逼近紧集上的平方可积函数。

  1. 多层前馈网络及BP算法概述

BP算法详解

BP算法基本思想

BP算法推导

神经网络的分类

权值正则化

算法总结

优点:

  1. 学习完全自主

  1. 可逼近任意非线性函数

缺点:

  1. 算法非全局收敛

  1. 收敛速度慢

  1. 学习速率α 选择

  1. 神经网络如何设计(几层? 节点数? )

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值