
MATLAB神经网络
文章平均质量分 83
WanGxxxx.
低调做人,高调做事
展开
-
基于直线一阶倒立摆的控制(二)——LQR
对于 S 来说,他代表了末端状态的权重矩阵,一般情况这会是一个对角矩阵,Q代表运行当中的权重矩阵,R则是输入权重矩阵,这些矩阵都是对角阵,其他两个都是 n * n,但是R为 p*p。A是n阶方阵,如果对任何非零向量x,都有。其中呢,X为一个n*1的输入矩阵,u是一个p*1的输出,那么A状态矩阵,就是 n*n,B就是n*p的矩阵,这个是经典的线性系统离散的表达形式。Xd是我们要控制的目标,w是末端时刻,希望在w时刻的量尽量的靠近参考量,也就是最后状态,这个最后状态等同于下面的N时刻,这一块称之为末端代价。原创 2024-12-04 21:40:05 · 617 阅读 · 0 评论 -
MATLAB深度学习(三)——LeNet卷积神经网络
LeNet原创 2024-11-18 13:36:07 · 1375 阅读 · 0 评论 -
MATLAB深度学习(二)——如何训练一个卷积神经网路
从数学的角度看,机器学习的目标是建立输入和输出的函数关系,相当于 y = F(x)的过程。F(x)的获得,我们通过的是实验法啊,经过大量数据训练出来的,我们定义一个损失函数L(x),记录真实输出与模型输出的偏差,通过数据的迭代使得损失函数L(x)达到最小。过拟合和欠拟合是常见的现象。但是需要说明的是,数据没有过多的这种说法,所谓的过拟合,是模型在训练集上的表现过于优异,模拟考100分你考了100分,99分,但是验证集上,相当于实际考试中你考了40分,换一场考试,换一个新的数据,导致严重误判。原创 2024-11-18 11:43:56 · 650 阅读 · 0 评论 -
Matlab深度学习(一)——如何构建一个卷积神经网络
一个卷积神经网络通常包含多个卷积层,以AlexNet为例子,就有5个卷积层,在卷积神经网络的数字图像识别过程中,每层的特征将会更加抽象。同一个卷积层中可以有多个不同的卷积核,所得到的特征图的个数和卷积层的卷积个数有关(子卷积核是分别卷积后求和,当然也可以是别的计算方法)。第一层是图像输入层,通过卷积以及其他特定形式的运算从图像中提取特征,接下来每一层都以前一层提取出的特征作为输入进行卷积,得到更高级的特征。卷积核与图像的相似程度越高,得到的响应值越大,因此可以通过滑动卷积运算来提取图像的特征。原创 2024-11-17 20:52:08 · 3052 阅读 · 1 评论