自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 自注意力机制与NLP的关系

在处理一段文本时,每个词语都会 “回头看” 文本中的其他所有词语,计算彼此的 “关联程度”(注意力权重),再结合这些关联信息更新自身的语义表示。打个比方:我们读句子 “小明喜欢小狗,他每天都陪它散步” 时,会自然知道 “他” 指代 “小明”,“它” 指代 “小狗”—— 这是人类大脑自动建立的词语关联。自注意力机制就是让计算机模拟这个过程:处理 “他” 时,模型会计算 “他” 与 “小明”“小狗”“散步” 等所有词的关联权重(“小明” 的权重最高),然后用 “小明” 的语义信息增强 “他” 的表示;

2025-12-01 19:41:20 732

原创 生成模型概念

比如 GAN 建模真实图像的像素分布、VAE 建模文本的词序列联合分布。条件概率分布:支撑。

2025-11-14 11:38:42 183

原创 使用线性回归算法预测房价

2025-10-31 11:14:51 368

原创 人工智能发展

2025-10-20 20:12:12 85

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除