- 博客(7)
- 收藏
- 关注
原创 (三)关于Transformer库的pipeline的一点理解
pipeline的作用是把模型所需要的和连接起来,也就是说pipeline做了这三件事情:预处理、模型计算和后处理。还是拿 pipeline 的这个代码来说输出如下具体“预处理、模型计算和后处理”每一步是怎么做的呢?
2025-04-06 18:38:42
598
原创 (二)NLP和Transformer架构,关于应用层面的简述
Transformer的编码器解码器,应用层面的讲解。Encoder工作流程:输入嵌入(Input Embedding)作用:将输入的离散数据转换为连续向量(即word embedding)。这里的词嵌入仅表示单词的独立语义,不包含上下文信息。位置编码(Positional Encoding)作用:为输入序列添加位置信息,弥补 Transformer 因无循环结构(RNN)而缺失的时序感知能力。多层编码器堆叠(Multi-Layer Encoder Stack)……
2025-04-05 19:10:32
719
原创 (一)SA,MHA,CA注意力机制的理解
最近在学功能脑网络,看到结合注意力机制的问题,正好整理一下。三个板块吧,自注意力机制SA,多头注意力机制MHA,交叉注意力机制CA。后续遇到其他注意力机制再添加补充。
2025-04-01 15:36:07
822
原创 andt.css缺失
应该是最新版本不支持andt.css了,改一下名字,reset.css。andt.css缺失,在node_modules里也没找到。按照andt官网导入模块。
2024-12-26 17:56:20
150
原创 Logistics回归和softmax回归的区别,理解交叉熵损失函数和最大似然估计
逻辑回归(Logistic Regression)通常用于二分类问题,即预测样本属于两个类别中的哪一个。例如,判断邮件是“垃圾邮件”还是“非垃圾邮件”。相比于逻辑回归的二分类,多分类问题涉及三个或更多类别。例如,识别图像是“猫”、“狗”还是“鸡”。对于 ( q ) 个类别,Softmax 函数将一个长度为 ( q ) 的向量oo1o2oqoo1o2...oq转换为一个概率分布yy1y2yqyy1y2...yq。
2024-11-07 18:51:15
757
原创 终端输入python和pip没反应,但是cmd有python和pip
的原因,首先保证下python之后添加到了环境变量path,然后把用户变量的python路径复制添加到系统变量,然后解决了。
2024-10-24 17:20:59
275
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人