【阿里云开发者社区】大语言模型(LLM)实战训练营

本文介绍了大模型如BERT、GPT和T5,以及主流开源模型LLaMA、ChatGLM-6B和BLOOM。重点讨论了AdapterTuning参数微调方法。文章还提及使用LangChain进行文本处理和大模型应用实例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


https://www.bilibili.com/video/BV14w411C78s/?spm_id_from=333.337.search-card.all.click&vd_source=4b2caf1fab34e94c80df37ee4480ba45


一、大模型

Transformer模型:
在这里插入图片描述

在这里插入图片描述

BERT模型

在这里插入图片描述
模型架构:

  • embedding
  • transformer
  • 预微调模块

预训练任务:
-Masked LM
-NSP

GPT模型

在这里插入图片描述

T5模型

在这里插入图片描述

二、主流开源大模型

在这里插入图片描述

LLaMA

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

ChatGLM-6B

在这里插入图片描述
在这里插入图片描述
INT4在个人笔记本上也可以部署。
在这里插入图片描述
在这里插入图片描述

BLOOM

decoder
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

三、大模型参数微调方法

在这里插入图片描述

Adapter Tuning

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
#四、 LangChain
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
本地文件——文本分割———向量化embedding——向量存储vectorstore——向量相似度比较
提问——向量化——向量相似度比较
比较选取跟query最接近的vectorstore中的k个向量,把这些向量放到这个prompt里面,一起传输给LLM,最后生成返回给用户的回答。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值