happy_llm学习
文章平均质量分 94
AI-星辰
记录学习心得 求知与分享
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深入Transformer架构:从“注意力是一切“到亲手搭建模型
本文分享了学习Transformer架构的深入体会。从注意力机制的字典类比到数学公式推导,作者理解了Transformer如何通过并行计算、直接连接和掩码机制解决RNN的串行计算缺陷。多头注意力、位置编码等设计展现了数学之美与工程智慧的完美结合。通过亲手实现模型代码,作者认识到理论与实践的相辅相成,并反思了Transformer架构背后"简单规则产生复杂现象"的哲学内涵。文章揭示了Transformer的成功并非偶然,而是从第一性原理出发的系统设计成果,为后续学习大语言模型奠定了坚实基础。原创 2025-06-17 19:58:20 · 902 阅读 · 0 评论 -
始理解NLP:我的第一章学习心得
本文分享了学习NLP基础概念的体会,从最初认为NLP仅是"让机器懂人话"的简单理解,到认识到其多学科交叉的本质。文章梳理了NLP从1940年代图灵测试到现代大语言模型的发展历程,重点分析了中文分词、实体识别等核心任务的技术难点,以及文本表示从稀疏向量到Word2Vec、ELMo的演进突破。作者总结出NLP发展遵循"发现问题-创新方法-验证效果-发现新问题"的循环模式,强调理解技术历史对掌握现代AI的重要性,为后续学习Transformer架构打下基础。原创 2025-06-16 19:31:32 · 1018 阅读 · 0 评论
分享