2024软件学院创新项目实训(1)--了解相关技术

在日常使用GPT的过程中,我们可以发现,对于一些时政,政治问题,GPT的回答总是不够准确,回答的内容总不在要点上,有时的回答甚至是错误的,因此借着创新项目实训大模型题目的契机,以及我们团队成员都有考研需求,我们团队决定开发一个基于InternLM的考研政治题库系统,项目的大体流程其他同学已经更新博客,作为大模型方面的知识小白,在本篇博客中希望对本项目中运用的一些技术进行学习和了解,对项目的技术点有清晰的理解,为以后的任务工作打下基础。

InternLM

在gitee上InterLM是这样介绍自己的,

InternLM: InternLM 是一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖。通过单一的代码库,它支持在拥有数千个 GPU 的大型集群上进行预训练,并在单个 GPU 上进行微调,同时实现了卓越的性能优化。在1024个 GPU 上训练时,InternLM 可以实现近90%的加速效率。 (gitee.com)icon-default.png?t=N7T8https://gitee.com/internlm/InternLM

InternLM 是一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖。通过单一的代码库,它支持在拥有数千个 GPU 的大型集群上进行预训练,并在单个 GPU 上进行微调,同时实现了卓越的性能优化。在1024个 GPU 上训练时,InternLM 可以实现近90%的加速效率。

受到计算资源的限制,一个轻量级的开发框架符合我们的需求,InternLM不需要消耗大量计算资源,不会有冗余的功能负担,因此安装和运行起来相对简单快捷。并且我们计划对大模型进行一些简单的训练使其对题库问题的回答更为准确,而InternLM专为支持大规模机器学习模型或深度学习模型的训练而设计,同时避免了对许多外部库或大量额外软件的依赖。

XTuner

在了解XTuner之前,首先对Fine Tune—微调要有一定的认识,常用的微调模式有两种,分别为增量预训练和指令跟随。

增量预训练是指在已有预训练模型的基础上,继续在特定的数据集上进一步训练模型,以适应特定的任务或领域。 这种方法通常被用来更新模型,使其能够理解新的数据或新的语言特征。简单来讲就是向一个已经实现的大模型投喂新的知识,我们的项目选择的也是这种微调方式。

 指令跟随是一种利用人类自然语言给模型的任务指令来指导模型行为的方式,通常被用在如GPT-3这样的语言生成模型中,不需要对模型结构或权重进行显著调整。通过提供具体、明确的指令,模型能够生成符合这些指令的输出。

XTuner就是一个打包好的大模型微调工具箱,可以为我们的微调过程提供很多帮助。

LMDeploy

LMDeploy 是一个用于压缩、部署和服务 LLM 的工具包,由 MMRazor 和 MMDeploy 团队开发。它具有以下核心功能:

  • 高效推理:LMDeploy 通过引入持久批处理(又称连续批处理)、阻塞 KV 缓存、动态拆分和融合、张量并行、高性能 CUDA 内核等关键功能,提供比 vLLM 高 1.8 倍的请求吞吐量。

  • 有效量化:LMDeploy 支持纯权重和 k/v 量化,4 位推理性能比 FP16 高 2.4 倍。量化质量已通过 OpenCompass 评估得到确认。

  • 轻松的分发服务器:利用请求分发服务,LMDeploy 有助于在多台机器和卡上轻松高效地部署多模型服务。

  • 交互式推理模式:通过缓存多轮对话过程中的注意力 k/v,引擎可以记住对话历史,从而避免对历史会话的重复处理。

无论是大模型的部署,微调工具的安装使用,在小组其他成员的博客中都有涉及,本篇博客仅是对这些技术点进行简单了解,对项目整体有个清晰的认知,方便开展后续工作。 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值