- 博客(8)
- 收藏
- 关注
原创 OpenCompass 大模型评测
C-Eval 是一个全面的中文基础模型评估套件。它包含了13948个多项选择题,涵盖了52个不同的学科和四个难度级别,如下所示。地址: https://cevalbenchmark.com/index_zh.html。
2024-01-21 12:20:03
1023
1
原创 LMDeploy 大模型量化部署实践
下图中,左边主要对比 LMDeploy 自身在量化前后的性能;右边主要对比 vLLM 和 LMDeploy 的性能对比。量化后,显存占用量显著减少,其中包括权重和 KV Cache。由于 GPU 的计算需要将权重从 GPU 主存 -> GPU 共享内存,因此量化显著减少了数据的传输量,提高了整体效率。AWQ 算法全称:Activation-aware Weight Quantization。
2024-01-14 21:48:46
1793
1
原创 XTuner 大模型单卡低成本微调实战
视频链接:https://www.bilibili.com/video/BV1yK4y1B75J/?vd_source=bebd279bbc043ae1c13d45838597180f文档地址:https://github.com/InternLM/tutorial/tree/main/xtunerXTuner Repo: https://github.com/InternLM/xtuner/tree/main拷贝修改配置文件训练微调使用命令训练也可以增加 d
2024-01-14 10:59:16
640
1
原创 基于 InternLM 和 LangChain 搭建你的知识库
视频链接:https://www.bilibili.com/video/BV1sT4y1p71V/文档:https://github.com/InternLM/tutorial/tree/main/langchain。
2024-01-10 23:13:34
979
原创 轻松玩转书生·浦语大模型趣味Demo
InternLM 是一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖。通过单一的代码库,它支持在拥有数千个 GPU 的大型集群上进行预训练,并在单个 GPU 上进行微调,同时实现了卓越的性能优化。在 1024 个 GPU 上训练时,InternLM 可以实现近 90% 的加速效率。基于 InternLM 训练框架,上海人工智能实验室已经发布了两个开源的预训练模型:InternLM-7B 和 InternLM-20B。
2024-01-06 22:34:34
947
1
原创 书生·浦语大模型全链路开源体系
从论文中可以看到在 2022 年底 ChatGPT 发布后,arXiv 上包含 "large language model” 关键字的论文呈指数型增长。
2024-01-04 23:07:47
400
1
原创 openMMLab AI实战营开课
OpenMMLab 底层基于 Pytorch 框架,是一个适用于学术研究和工业应用的开源项目,涵盖了计算机视觉的许多研究课题,如:图像分类、目标检测、目标分割、超分辨率图像生成等。开课的 PPT 上看到一个极市平台:使用OpenMMLab挑战极市平台工业项目开发挑战入口:https://www.cvmart.net/topLis。久闻 openMMLab 大名,最开始用过几次 MMDetection,这次有机会参加一下 AI 实战营,希望这次可以了解更多,能够坚持参加下去。此为开课第一篇笔记。
2023-05-31 22:52:37
128
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人