神经网络与深度学习 第一周知识总结

课程开端与背景

  • 人工智能与深度学习
    深度学习通过多层神经网络自动学习数据特征,减少人工干预,是第三次AI浪潮的核心技术(数据量增长+算力提升)。

 

线性回归

输入特征(如房屋面积、房龄)与输出目标(如房价)的线性关系建模。

训练与优化:

代价函数:平方误差和

解析解:

梯度下降:迭代更新参数

线性分类与Sigmoid回归
二分类问题:

Sigmoid函数:将线性输出映射到概率(0-1)

代价函数:交叉熵损失

梯度下降更新:

多分类问题(Softmax回归):

Softmax函数:

交叉熵损失:

神经元与感知机模型
M-P神经元模型:

结构:加权求和 + 激活函数

激活函数:
Sigmoid:σ ( z )
Tanh:tanh ⁡ ( z )
阶跃函数:f ( z ) 
感知机模型:

分类决策
训练算法:
误分类更新
 (Hebb规则)
收敛条件:仅适用于线性可分数据,否则需引入多层网络。
深度学习发展与技术
历史阶段:
1940s-1960s(M-P模型)、1980s(BP算法)、2006年(深度学习爆发)。
关键技术:
CNN:图像处理(卷积层提取局部特征)。
Transformer:NLP(自注意力机制)。
大模型:GPT系列、扩散模型(如Stable Diffusion)。
应用领域与技术要求
自然语言处理:BERT、Transformer、PyTorch工具链。
计算机视觉:OpenCV、YOLO目标检测、三维重建。
机器人:融合强化学习、SLAM技术。
学习体会与改进
数学基础:线性代数(矩阵运算)、概率论(最大似然估计)、微积分(梯度下降)。
实践建议:
使用PyTorch/TensorFlow实现线性回归、Softmax分类。
分析线性不可分问题(如XOR问题)的多层感知机(MLP)解决方案。
其他细节
线性回归的几何意义:
超平面拟合数据,解析解通过投影矩阵推导
感知机局限性:
无法解决非线性问题(如异或问题),需引入多层网络或核方法。
Softmax与交叉熵:
Softmax输出概率分布,交叉熵衡量预测与真实分布的差异。
Hebb规则:
生物启发的权值更新规则,强调“神经元同步激活则连接增强”。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值