自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 (三)关于Transformer库的pipeline的一点理解

pipeline的作用是把模型所需要的和连接起来,也就是说pipeline做了这三件事情:预处理、模型计算和后处理。还是拿 pipeline 的这个代码来说输出如下具体“预处理、模型计算和后处理”每一步是怎么做的呢?

2025-04-06 18:38:42 598

原创 (二)NLP和Transformer架构,关于应用层面的简述

Transformer的编码器解码器,应用层面的讲解。Encoder工作流程:输入嵌入(Input Embedding)作用:将输入的离散数据转换为连续向量(即word embedding)。这里的词嵌入仅表示单词的独立语义,不包含上下文信息。位置编码(Positional Encoding)作用:为输入序列添加位置信息,弥补 Transformer 因无循环结构(RNN)而缺失的时序感知能力。多层编码器堆叠(Multi-Layer Encoder Stack)……

2025-04-05 19:10:32 719

原创 (一)SA,MHA,CA注意力机制的理解

​最近在学功能脑网络,看到结合注意力机制的问题,正好整理一下。三个板块吧,自注意力机制SA,多头注意力机制MHA,交叉注意力机制CA。后续遇到其他注意力机制再添加补充。

2025-04-01 15:36:07 822

原创 andt.css缺失

应该是最新版本不支持andt.css了,改一下名字,reset.css。andt.css缺失,在node_modules里也没找到。按照andt官网导入模块。

2024-12-26 17:56:20 150

原创 Logistics回归和softmax回归的区别,理解交叉熵损失函数和最大似然估计

逻辑回归(Logistic Regression)通常用于二分类问题,即预测样本属于两个类别中的哪一个。例如,判断邮件是“垃圾邮件”还是“非垃圾邮件”。相比于逻辑回归的二分类,多分类问题涉及三个或更多类别。例如,识别图像是“猫”、“狗”还是“鸡”。对于 ( q ) 个类别,Softmax 函数将一个长度为 ( q ) 的向量oo1o2oqoo1​o2​...oq​转换为一个概率分布yy1y2yqy​y​1​y​2​...y​q​。

2024-11-07 18:51:15 757

原创 学习李沐课程安装d2l失败

关掉vpn,重新安装。

2024-11-05 03:53:29 1073

原创 终端输入python和pip没反应,但是cmd有python和pip

的原因,首先保证下python之后添加到了环境变量path,然后把用户变量的python路径复制添加到系统变量,然后解决了。

2024-10-24 17:20:59 275

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除