
书生大模型课程笔记
文章平均质量分 63
YoungerBob
北京理工大学模式识别与智能系统博士在读
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【大模型】L1.1 书生·浦语大模型开源开放体系
主要为大家介绍这个体系~InternLM就是书生浦语大模型的一个别称近年发展的大模型性能天梯图。原创 2024-08-23 11:06:25 · 212 阅读 · 0 评论 -
【大模型】L1.6 opencompass评测
接下来,可以通过命令行评测InternLM2-Chat-1.8B模型在C-Eval数据集上的性能。由于OpenCompass默认并行启动评估过程,可以在第一次运行时以 --debug 模式启动评估,让任务按顺序执行,并实时打印输出,方便我们检查是否存在问题。除了通过命令行配置实验外,OpenCompass 还允许用户在配置文件中编写实验的完整配置,并通过。在OpenCompass中评估一个模型通常包括以下阶段:配置-推理-评估-可视化。因此,运行任务时,只需要将配置文件的路径传递给。原创 2024-08-23 10:02:34 · 1130 阅读 · 0 评论 -
【大模型】L1.5.1 XTuner微调个人小助手认知
LoRA(Low-Rank Adaptation)是一种使用低精度权重对大型预训练语言模型进行微调的技术,它的核心思想是在不改变原有模型权重的情况下,通过添加少量新参数来进行微调。这种方法降低了模型的存储需求,也降低了计算成本,实现了对大模型的快速适应,同时保持了模型性能。其缺点是可能会丢失原始模型的高阶特征信息,因此准确性可能降低。QLoRA(Quantized LoRA)微调技术是对LoRA的一种改进,它通过引入高精度权重和可学习的低秩适配器来提高模型的准确性。原创 2024-08-22 16:58:14 · 707 阅读 · 0 评论 -
【大模型】L1.4 llamaindex+Internlm2 RAG实践
RAG,Retrieval Augmented Generation 检索增强生成技术。RAG是一种给模型注入新知识的方式,并不改变模型的权重,只是给模型引入额外的信息。RAG能够让基础模型实现非参数知识更新,无需训练就可以掌握新领域的知识。LlamaIndex是一个,旨在通过将其与特定上下文数据集成,增强大型语言模型的能力。我们这次使用的大模型是InternLM2-Chat-1.8B。原创 2024-08-20 15:01:21 · 719 阅读 · 0 评论 -
【大模型】L1.3 LangGPT结构化提示词编写实践
任务要求参见。原创 2024-07-27 23:29:43 · 424 阅读 · 0 评论 -
【大模型】L0.1:Linux学习与配置SSH连接Linux
VSCODE已经连接了,下面创建一个conda环境。helloworld运行结果。SSH链接与端口映射完成。原创 2024-07-13 14:20:17 · 361 阅读 · 0 评论 -
【大模型】L0.2:python
【代码】【大模型】L0.2:python。原创 2024-07-13 15:07:58 · 304 阅读 · 0 评论 -
【大模型】L0.3 git的基本使用
按照Git 课程任务上面的指示可以比较好地管理代码的分支、在原有分支上进行协作。原创 2024-07-19 20:16:19 · 280 阅读 · 0 评论 -
【大模型】L1.2书生大模型 Demo
参考完成学习。原创 2024-07-27 15:24:36 · 967 阅读 · 0 评论