
大模型
文章平均质量分 76
qzhqbb
这个作者很懒,什么都没留下…
展开
-
Dify+Docker
直接下载(1)访问(2)点击绿色的"Code"按钮,然后选择"Download ZIP"(1)先找到文件所在的文件夹(通常在 dify 目录下的 docker 文件夹中)进入这个命令会启动在中定义的所有服务。原创 2024-11-30 00:15:42 · 867 阅读 · 0 评论 -
大模型 LLM 八股文
LLM(Large Language Model,大型语言模型)是指基于大规模数据和参数量的语言模型。Transformer 架构:大模型 LLM 常使用 Transformer 架构,它是一种基于自注意力机制的序列模型Transformer 架构由多个编码器层和解码器层组成,每个层都包含多头自注意力机制和前馈神经网络。这种架构可以捕捉长距离的依赖关系和语言结构,适用于处理大规模语言数据。自注意力机制(Self-Attention):自注意力机制是 Transformer 架构的核心组件之一。原创 2024-11-29 00:59:34 · 860 阅读 · 0 评论