datawhale
文章平均质量分 90
Never out of memory
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
datawhale AI夏令营NLPtask3笔记
Transformer 在原论文中第一次提出就是将其应用到领域,它的出现使得机器翻译的性能和效率迈向了一个新的阶段。它摒弃了循环结构,并完全通过。在在这个过程当中没有任何的循环单元参与计算。这种的编码过程使得模型的运行变得十分高效。当前几乎。Transformer的主要组件包括。其核心是利用,使每个位置的表示不仅依赖于当前位置,还能够直接获取其他位置的表示。自从提出以来,Transformer模型在机器翻译、文本生成等自然语言处理任务中均取得了突破性进展,成为NLP领域新的主流模型。原创 2024-07-20 00:01:45 · 1349 阅读 · 0 评论 -
【datawhale AI夏令营】 NLP赛事入门 task2笔记
机器翻译任务的预处理是确保模型能够有效学习源语言到目标语言映射的关键步骤。预处理阶段通常包括多个步骤,旨在清理、标准化和转换数据,使之适合模型训练。原创 2024-07-17 15:49:05 · 1852 阅读 · 0 评论
分享