
AI
文章平均质量分 79
编码浪子
一杯咖啡,一台电脑,一个bug都没有的代码,这真的很美!
展开
-
Transformer的linear和softmax
线性层:将解码器的高维输出简化为一个与词汇表大小相同的低维向量,每个位置上的值代表对应词汇的可能性得分。Softmax函数:将这些得分转换成概率值,使得我们可以明确知道每个词汇被选中的可能性。这样一来,模型不仅能确定最有可能的下一个词,还能理解其他候选词的选择概率,从而更加灵活和智能地生成文本。原创 2025-01-21 10:30:31 · 1044 阅读 · 0 评论 -
Transformer解码器工作流程
通过上述步骤,Transformer的解码器有效地利用编码器提供的信息来生成新的句子。词汇嵌入与位置编码:将每个单词转换为包含其意义和位置的向量。掩码多头自注意力机制:处理目标序列,确保模型不会提前看到未来的词。编码器-解码器注意力:结合编码器的记忆,理解源序列的信息。前馈神经网络:对信息进行进一步的数学处理,捕捉更复杂的模式。残差连接与层归一化:确保信息顺利流动,并保持稳定性和一致性。堆叠多个解码器层:逐步提炼出更高级别的特征表示,最终生成目标句子。原创 2025-01-21 10:12:17 · 943 阅读 · 0 评论 -
Transformer中的分词embedding和位置编码embedding
分词嵌入是指将文本中的每个词汇转换为一个固定维度的向量表示。这个过程通过查找表(lookup table)完成,其中每个词汇对应于一个唯一的向量。这些向量通常是在训练过程中学习到的,因此能够捕捉词汇之间的语义关系。由于Transformer模型没有内置的顺序信息处理机制(如RNN中的时间步),位置编码用于为输入序列添加位置信息。位置编码使得模型能够理解词汇的相对或绝对位置,从而有助于处理序列任务。分词嵌入:将文本中的每个词汇转换为固定维度的向量表示,捕捉词汇的语义信息。位置编码。原创 2025-01-21 09:04:00 · 964 阅读 · 0 评论 -
进军AI大模型-Langchain程序部署
把ai部署后,使用api的方式调用原创 2025-01-03 07:19:28 · 498 阅读 · 0 评论 -
进军AI大模型-整合开发流程
如果只是简单的大语言模型,这几步确实够用了,但是想要把大语言模型做的优秀,还需要agent、rag等组件的支撑原创 2024-12-31 16:07:43 · 354 阅读 · 0 评论 -
进军AI大模型-环境配置
合法上网工具:这个T子试试,一直稳定。走我链接免费用5天:python版本: python3.12Langchain:v0.3 9月16日升级的版本pip3 设置成阿里云的源镜像(能够快速下载依赖包)langchain安装检查是否安装成功。原创 2024-12-28 21:46:28 · 622 阅读 · 0 评论