- 博客(6)
- 收藏
- 关注
原创 深入理解 LSTM:原理与公式全解析及MATLAB实现
定义一个名为rnn_LSTMinput:是输入的数据序列,其维度为,代表批量大小、时间步数以及输入特征的维度。w_ihw_hh:分别是输入到隐藏层以及隐藏层到隐藏层的权重矩阵,用于计算不同阶段的线性变换。b_ihb_hh:分别是对应于w_ih和w_hh的偏置向量,用于在相应的线性变换中添加偏置项。*_ih为输入到隐藏层的参数,*_hh为隐藏层到隐藏层的参数。函数的返回值有三个:output:代表LSTM在各个时间步的输出序列,维度为。:最终的隐藏状态。
2024-12-06 22:55:27
1489
原创 理解 Verilog HDL 的抽象层次
VerilogHDL组合逻辑的编码可以从三个不同抽象层实现,这些抽象层是描述同一种硬件的不同方式。从具体到抽象的程度,可以分为gate、dataflow、behavior三种,其中gate级描述了硬件实际搭建的过程,dataflow级描述实际的逻辑门控数据的流动方式,behavior描述的是电路实际行为方式。可以根据用户实际喜好实现三种方式用于描述您的设计,下面我们还将看看这三种抽象层次所实现代码的差异。
2024-10-12 23:23:54
1216
原创 理解YOLO后处理操作:基于MATLAB实现
本文旨在介绍在MATLAB中实现已训练好的神经网络模型的过程,帮助同学们梳理神经网络的计算步骤。这些步骤不仅对于在PC以外的其他平台部署神经网络有一定的指导意义,也能帮助那些对深度学习不太了解的同学更好地理解深度学习模块所执行的具体操作及其实现方式。选择MATLAB作为工具,是因为其语法相对简单,并且在学术界和大学中得到广泛应用,适合初学者入门。
2024-09-29 23:56:18
1610
原创 在Zynq平台上实现神经网络的思路、方案
PS(处理系统):基于ARM Cortex-A9处理器,负责控制、管理和执行复杂的任务,适合处理需要高灵活性和复杂计算的部分。PL(可编程逻辑):FPGA部分,适合并行计算和实时数据处理,能够高效执行特定算法,尤其是可并行化的操作。PS部分包括ARM Cortex-A9 CPU以及该SoC的外设,如SPI、I2C、CAN等。PL则是可编程逻辑部分,能够通过FPGA实现灵活的硬件设计与定制。PS和PL的数据交互可以通过上图的AXI总线、DDR或DMA等。
2024-09-28 19:52:27
1657
3
原创 卷积、激活、池化与批量归一化:深度学习中的关键操作
通过卷积、激活、池化和批量归一化这四个操作,卷积神经网络能够高效地处理图像数据,提取多层次的特征。这些操作的有效结合不仅提升了模型的学习能力和表现,还加速了训练过程,增强了模型的鲁棒性。并且根据上述卷积,池化,激活,bn模块,就可以开始搭建简单的神经网络结构了。
2024-09-28 00:04:10
1631
2
原创 理解卷积操作:MATLAB中的Conv2d函数实现
卷积操作在深度学习和图像处理中的重要性不可小觑。通过上述Conv2d函数的实现,我们能够理解卷积如何在图像中提取特征,以及如何通过参数设置(如步长、填充和偏置)调整输出的特性。掌握卷积操作对于设计有效的神经网络至关重要。最后在文章最后给出完整代码。%% 输入参数:% input (1, H, W, L) - 输入数据,H 为高度,W 为宽度,L 为通道数。
2024-09-27 00:59:50
762
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人