- 博客(8)
- 收藏
- 关注
原创 嵌入式系列之zynq7020学习2:逻辑电路和时序电路以及如何读时序图
当时钟信号从0变成1的瞬间(上升沿), 触发器会立刻读取此时D端的数据,并将其锁存到Q端(存储单元里保存了数据,输出端数据抑制不变)。相当于寄存器采样,描述的是时序逻辑的并行更新。在时序逻辑中,右边的值计算后,先存起来,等always块结束后同时执行更新,所以变量还是语句开始时的。在时钟上升沿,所有触发器同时查看自己当前的输入,所有触发器同时更新自己的输出。在时钟上升沿,所有触发器同时查看自己当前的输入,所有触发器同时更新自己的输出。既关心现在,也关心过去。的输出,所以,这个输出同时也是存储单元里的值。
2025-12-25 00:01:49
583
原创 嵌入式系列之zynq7020学习1:Xilinx工具链变化(2017年至2023年)以及工程重建至2022.2
Xilinx 工具从 “SDK 集成在 Vivado” 到 “Vitis 独立工具”,再到 “Vivado/Vitis 工程完全解耦==========
2025-12-24 18:38:07
771
原创 happy-llm项目task05:预训练语言模型三大类
Masked Language Model,MLM,掩码语言模型,即在一个文本序列中随机遮蔽部分 token,然后将所有未被遮蔽的 token 输入模型,要求模型根据输入预测被遮蔽的 token。Decoder部分,在Encoder基础上,还包含了Encoder-Decoder Attention 结构,用于捕捉输入和输出序列之间的依赖关系。Encoder部分,主要包括自注意力机制和前馈神经网络,前者用于捕捉输入序列中的全局依赖关系,后者用于处理特征的非线性变换;
2025-12-24 02:56:45
609
原创 happy-llm项目task03: Transformer与Encoder&Decoder
在RNN类架构计算效率低和难以实现并行化计算的背景下,发展出了Transformer这类神经网络架构,带来了NLP领域的大变革,其关键思想在于“注意力机制”的应用,虽然这种思想最早来自于图像领域。指的是,输入为序列,输出可能为一个不等长序列。,即,将第一个层的输出作为 quency, 同时,使用Encoder的输出作为key 和value, 由此来计算注意力分数。为了避免复杂、深度模型退化,有这个一个处理思想:下一层的输入,在上一层的输出的基础上,还加上了上一层的输入。残差连接 resifual。
2025-12-21 02:18:29
343
原创 AI硬件与机器人打卡-task01:具身智能与基础控制算法
指物理实体, 仿生学角度的五官和四肢等。(1)传感器,包括但不限于可见光、激光雷达、惯导等提供关于环境和自身的一些信息,(2)执行机构,能够执行决策的实体,比如机械臂,比如轮子。:指感知、决策的能力或者智慧,实现形式是算法。比如大模型算法,要提前学习环境(预先训练),要能适应环境(强化学习)。:需要去理解、去适应的复杂的、时变的、非线性的物理实体。
2025-12-19 00:42:11
248
原创 happy-llm项目task02: Transformer与Attention
NLP领域中,文本表示方法作为核心问题,从统计学习发展到了深度学习。前者指,向量空间模型、word2Vec 的单层神经网络等。后者指,神经网络学习的方式。神经网络的发展经历了三个大阶段:全连接神经网络(FNN), 到卷积神经网络(CNN),再到 循环神经网络(RNN)。RNN在NLP任务上优势非常明显,擅长处理序列(文本)、时序数据。即时后来,在RNN这个领域里,提出了LSTM, BiLSTM等新型架构,但是仍然无法解决大规模数据处理时效率低的问题,且由于顺序执行无法并行计算。
2025-12-17 02:19:01
181
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅