【AI基础课程】

本文详细介绍了全连接神经网络的结构,包括非线性激活函数的作用,以及梯度下降法在学习过程中的重要性。此外,还着重讲解了卷积神经网络的核心——卷积运算和池化运算,以及卷积核在其中的角色。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

链接:
https://www.bilibili.com/video/BV1e34y1M7wR/?p=2&spm_id_from=pageDriver&vd_source=e37063ab334e2375db73b2885f88bb0d
在这里插入图片描述
全连接神经网络的整体架构

全连接神经网络的结构单元
在这里插入图片描述
其中a表示激活函数,用数学表达式:
a=h(w*x+b) 往往是非线性的

在这里插入图片描述
h(h(h(x)))代表一层一层神经网络的组合
为什么要加入激活函数
在这里插入图片描述
梯度下降法
在这里插入图片描述
a: 学习率 一般为0.001-0.05 如果太大或太小都不行
训练过程
在这里插入图片描述
CNN
在这里插入图片描述
卷积就是一种运算,卷积神经网络核心就是卷积运算,池化运算
卷积运算:
在这里插入图片描述
其中卷积核就是神经网络中的w(图片中的w大小的2*2)
输出后得到a,再加上激活函数y=h(a)
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值