- 博客(12)
- 收藏
- 关注
原创 书生·浦语大模型全链路开源体系【笔记+作业链接合集】
书生·浦语大模型全链路开源体系【大模型第1课】-优快云博客书生·浦语大模型全链路开源体系【大模型第2课-笔记】-优快云博客书生·浦语大模型全链路开源体系【大模型第2课-作业】-优快云博客书生·浦语大模型全链路开源体系【大模型第3课-笔记】-优快云博客书生·浦语大模型全链路开源体系【大模型第3课-作业】-优快云博客书生·浦语大模型全链路开源体系【大模型第4课-笔记】-优快云博客书生·浦语大模型全链路开源体系【大模型第4课-作业】-优快云博客书生·浦语大模型全链路开源体系【大模型第5课-笔记】-C
2024-01-30 17:01:22
418
1
原创 书生·浦语大模型全链路开源体系【大模型第6课-笔记】
本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。对话模型:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指令,具有较强的对话能力。
2024-01-25 21:19:57
861
原创 书生·浦语大模型全链路开源体系【大模型第5课-笔记】
但 PyTorch 和 DeepSpeed 调用的其实都是 Huggingface 的 Transformers 包,PyTorch表示原生的 Transformer 包,DeepSpeed 表示使用了 DeepSpeed 作为推理框架。上面两行命令分别展示了如何直接加载 Huggingface 的模型,第一条命令是加载使用 lmdeploy 量化的版本,第二条命令是加载其他 LLM 模型。模型转换完成后,我们就具备了使用模型推理的条件,接下来就可以进行真正的模型推理环节。
2024-01-25 21:14:08
1756
原创 书生·浦语大模型全链路开源体系【大模型第4课-笔记】
一个大语言模型微调工具箱。由MMRazor和MMDeploy联合开发。以数据集为例基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调,将其往医学问答领域对齐。此时,我们重新建一个文件夹来玩“微调自定义数据集”把前面下载好的internlm-chat-7b模型文件夹拷贝过来。别忘了把自定义数据集,即几个.jsonL,也传到服务器上。
2024-01-25 17:42:46
927
原创 书生·浦语大模型全链路开源体系【大模型第3课-笔记】
llm.predict("你是谁")构建检索问答链,还需要构建一个 Prompt Template,该 Template 其实基于一个带变量的字符串,在检索之后,LangChain 会将检索到的相关文档片段填入到 Template 的变量中,从而实现带知识的 Prompt 构建。# 我们所构造的 Prompt 模板template = """使用以下上下文来回答用户的问题。如果你不知道答案,就说你不知道。总是使用中文回答。问题: {question}可参考的上下文:···{context}
2024-01-09 23:11:14
1673
原创 书生·浦语大模型全链路开源体系【大模型第3课-作业】
选择一个垂直领域,收集该领域的专业资料构建专业知识库,并搭建专业问答助手,并在。复现课程知识库助手搭建过程 (截图)上成功部署(截图,并提供应用地址)
2024-01-09 23:02:00
347
原创 书生·浦语大模型全链路开源体系【大模型第2课-笔记】
大模型通常指的是机器学习或人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。这些模型利用大量数据进行训练,并且拥有数十亿甚至数千亿个参数。大模型的出现和发展得益于增长的数据量、计算能力的提升以及算法优化等因素。这些模型在各种任务中展现出惊人的性能,比如自然语言处理、计算机视觉、语音识别等。这种模型通常采用深度神经网络结构,如BERTGPT( Generative Pre-trained Transformer )等。大模型的优势在于其能够捕捉和理解数据中更为复杂、抽象的特征和关系。
2024-01-09 15:42:23
1143
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人