自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1)
  • 收藏
  • 关注

原创 transformer学习笔记

Transformer 模型的底层输入通常是经过分词(tokenization)的词或子词单元,而不是整个句子。输入的每个词或子词会被转换为向量表示,然后通过位置编码和词嵌入传入模型进行处理。先把句子“我今天中午吃了饺子”分成更小的词(叫分词)。把每个词转成数字,模型通过这些数字来理解词语。给每个词加上顺序信息(位置编码),让模型知道词的位置。模型通过自注意力机制“理解”每个词和其他词的关系。最终,模型输出一个结果,比如情感判断或翻译。

2024-12-02 16:48:09 991

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除