- 博客(7)
- 收藏
- 关注
原创 学习 Encoder-Decoder 架构
Encoder 通过多层自注意力与前馈网络,逐步提取输入数据的深层特征,并行处理提升效率;Decoder 则借助掩码注意力保证生成顺序,跨注意力机制精准关联 Encoder 输出,实现输入与输出的语义对齐。这种模块化设计兼具灵活性与通用性,不仅支撑 NLP 的翻译、摘要任务,还可适配时序预测等场景。核心收获是,Encoder 的 “特征提取” 与 Decoder 的 “生成建模” 通过注意力无缝衔接,既解决了信息传递的准确性,又保留了生成的灵活性,让我理解了现代大模型高效适配多任务的底层逻辑。
2025-11-16 22:45:44
150
原创 学习 Transformer 的注意力机制
学习 Transformer 的注意力机制后,我收获颇丰。其核心是让模型动态分配权重,聚焦关键信息,彻底摆脱了 RNN 的序列依赖,实现并行计算,大幅提升效率。自注意力机制通过 Q、K、V 的矩阵运算,量化输入间的关联,而多头注意力进一步拓宽了特征捕捉维度,能同时关注局部细节与全局趋势。学习中深刻体会到,注意力机制的本质是模拟人类认知的聚焦能力,其简洁的数学框架下蕴含着高效的特征提取逻辑,也让我明白高效模型设计需贴合任务本质,精准解决核心痛点。
2025-11-16 22:41:48
212
原创 打卡task2
通过学习第一章 NLP 基础概念,我系统了解了 NLP 的核心定义与发展脉络,明晰了文本表示、分词等基础任务的核心价值。从传统方法到深度学习范式的演进,让我认识到 NLP 技术贴合语言本质的特点。这些基础概念为后续学习 Transformer、大模型等复杂内容筑牢根基,也让我感受到 NLP 在现实场景中的广泛应用潜力,激发了深入探索的兴趣。
2025-11-12 19:52:04
93
原创 打卡打卡打卡打卡
通过第一章学习,我系统了解了 NLP 的定义、发展历程与核心任务,明晰了文本表示从稀疏向量到稠密嵌入的演进逻辑。分词、实体识别等基础任务的价值与文本表示的关键作用让我印象深刻,为后续深入学习 Transformer 和 LLM 筑牢了理论根基。
2025-11-11 10:19:49
107
原创 解决报错:Could not resolve all dependencies for configuration ‘appdebugRuntimeClasspath‘
解决Caused by: org.gradle.api.internal.artifacts.ivyservice.DefaultLenientConfig问题
2022-08-25 13:23:38
1683
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅