- 博客(35)
- 收藏
- 关注
原创 LLM学习之路-01-第一章-预训练/看懂FlashAttention需要的数学储备是?高考数学最后一道大题!
看懂FlashAttention需要的数学储备是?高考数学最后一道大题!
2025-03-14 20:00:35
871
原创 LLM学习之路-第一章-预训练/什么是大模型的位置编码Position-Encoding
什么是大模型的位置编码Position-Encoding
2025-03-04 10:00:00
1360
原创 LLM学习之路-01-第一章-预训练/为什么会发展出Multi-Query-Attention和Group-Query-Attention
为什么会发展出Multi-Query-Attention和Group-Query-Attention
2025-03-03 19:54:00
240
原创 LLM学习之路-01-第一章-预训练/FlashAttentionv2相比于v1有哪些更新?
FlashAttentionv2相比于v1有哪些更新?
2025-03-03 15:13:54
1094
原创 LLM学习之路-01-第一章-预训练/10分钟搞清楚为什么Transformer中使用LayerNorm而不是BatchNorm
LLM学习路线
2025-03-02 21:26:08
1004
原创 深度优先搜索(DFS)和广度优先搜索(BFS)两种算法c++
本文介绍了BFS和DFS两种算法及其实现过程,以及通过这两种算法解决迷宫复杂问题和七段码问题的解题思路以及完整代码展示!
2022-12-12 01:04:41
13833
5
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人