深度学习(一)-CNN原理研究

本文详细介绍了深度学习中的卷积神经网络(CNN)原理,涵盖了基本概念如协方差矩阵、线性与非线性、似然函数、凹凸函数、梯度下降法,以及激活函数和反向传播算法。深入讲解了CNN的整体网络结构,包括卷积层、池化层、局部响应归一化、全连接层等,同时讨论了参数初始化、更新和调优的方法。还提到了AlexNet、VGGNet等经典模型,并解答了关于CNN的常见疑问。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

 https://blog.youkuaiyun.com/xiake001/article/details/78403482

基本概念

协方差矩阵

关于协方差矩阵的理解

线性与非线性

“线性”=”齐次性”+”可加性”, 
“齐次性”是指类似于: f(ax)=af(x), 
“可加性”是指类似于: f(x+y)=f(x)+f(y), 
这里没有太多特别的原因, 就是一个名字. “非线性”当然就是这两条至少之一不成立.

似然函数

如何理解似然函数? 
贝叶斯公式的直观理解(先验概率/后验概率) 
详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解

凹凸函数

定义 
若这里凸集C即某个区间I,那么就是:设f为定义在区间I上的函数,若对I上的任意两点 和任意的实数 ,总有

这里写图片描述

则f称为I上的凸函数,当且仅当其上境图(在函数图像上方的点集)为一个凸集。

判定 
对于实数集上的凸函数,一般的判别方法是求它的二阶导数,如果其二阶导数在区间上非负,就称为凸函数。(向下凸) 
如果其二阶导数在区间上恒大于0,就称为严格凸函数。

梯度下降法

[机器学习] ML重要概念:梯度(Gradient)与梯度下降法(Gradient Descent) 
梯度下降(Gradient Descent)小结

激活函数

1. 激活函数的作用

反向传播算法

1.重点参考:一文弄懂神经网络中的反向传播法——BackPropagation 
2.如何理解神经网络里面的反向传播算法? 
3.反向传播算法(过程及公式推导)

监督与非监督学习

聚类(序)——监督学习与无监督学习

主成分分析(Principal Components Analysis,PCA)

PCA是用来数据降维的。思想是:假设nxn的矩阵A,有协方差矩阵B,计算B的n个特征值和特

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值