- 博客(7)
- 收藏
- 关注
原创 基于softmax完成一个简易信号分类器
首先为啥会想做这个呢?因为最近的科研都没啥进展。。。。百般无聊,便自己做个小玩意儿练练手,顺便也巩固一下pytorch训练神经网络的逻辑套路和框架。这个想法其实很简单,生成一些信号序列作为原始数据,主要是余弦信号,三角波信号,方波信号和噪声,我们利用softmax来实现一个能够分辨信号类型的模型。
2024-10-28 16:43:25
2024
原创 简单自编码器的实现
自编码器(AutoEncoders)是一种基于无监督学习方式的神经网络,其核心部分由编码器(encoder)和解码器(decoder)组成。其中,最中间的隐藏层被称为编码层,可以看到,当编码层的神经元数量小于输入层时, 则表明能够用更小的维度去表达高维的输入,及实现了输入层的信息压缩。而后再通过解码层对信息进行解压,恢复原数据。
2024-10-15 12:00:12
1088
原创 《动手学深度学习》学习记录(五)—— 序列模型
在单步预测中,我们利用前四个已知的数据来预测下一个数据,这样的结果还是很不错的,如上图所示。而假设已经用前四个数(假设为x1,x2,x3,x4)据预测出了第五个数据(x5),还需要马上预测第六个(x6)、第七个数据(x7),此时我用第二三四个已知数据(即x2,x3,x4)和第五个预测出来的数据(x5)作为依据去预测第六个数据(x6),再接下来用第三四个已知数据(x3,x4)和第五六个预测数据(x5,x6)作为依据去预测第七个数据(x7)...以此类推,当用这样的方式去预测第k个数据时便被称之为k步预测。
2024-10-06 16:44:36
338
原创 《动手学深度学习》学习记录(四)—— 卷积神经网络
卷积神经网络(CNN)是一种使用卷积层的网络。对于一个卷积层,严格来说其所涉及的基本运算并不是卷积运算,而是互相关运算。我们可以举出以下例子来说明:这是一个二维互相关运算的运算图解,卷积窗口(核函数)从输入矩阵的左上角开始,依次向右、向下滑动,并依次与滑动所在位置上的矩阵(即重叠部分)进行按元素相乘,并将所有相乘的结果求和得到输出。
2024-09-24 21:45:53
1723
原创 《动手学深度学习》学习记录(三)—— 欠拟合和过拟合
在深度学习当中,我们的目标是要发现一种泛化的我们所构建的模型应当能够总结训练集中的规律,并应用于更广阔的数据集中,而不仅仅是记住训练集中的数据那么简单。只有当模型发现了一种泛化的模式,才能进行准确的预测。而如何找到这种泛化的模式是深度学习的根本问题。
2024-09-22 14:07:10
912
原创 《动手学深度学习》学习记录(二)—— 多层感知机的基本实现
可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制,以使其能够更普遍地处理函数关系。而最简单的做法即是将许多个全连接层堆叠在一起,上一个全连接层的输出作为下一个全连接层的输入,直到完成最后的输出。这种架构通常称为多层感知机),通常缩写为MLP。
2024-09-19 20:13:38
679
原创 《动手学深度学习》学习记录(一)—— 线性回归、softmax基本模型的实现
"""线性回归模型"""这里采用平方损失函数。"""均方损失""""""小批量随机梯度下降"""对每个项求幂(使用exp对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;将每一行除以其规范化常数,确保结果的和为1。return X_exp / partition # 这里应用了广播机制。
2024-09-19 11:00:02
1533
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人