【书生大模型实战】L1-OpenCompass 评测 InternLM-1.8B 实践

一、关卡任务

基础任务(完成此任务即完成闯关)

  • 使用 OpenCompass 评测 internlm2-chat-1.8b 模型在 MMLU 数据集上的性能,记录复现过程并截图。

进阶任务(闯关不要求完成此任务)

  • 使用 OpenCompass 进行主观评测(选做)
  • 使用 OpenCompass 评测 InternLM2-Chat-1.8B 模型使用 LMDeploy部署后在 MMLU 数据集上的性能(选做)
  • 使用 OpenCompass 进行调用API评测(优秀学员必做)

二、实验过程

2.1 OpenCompass介绍

OpenCompass2.0,又称“司南”,是由上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系。其主要是用于为大语言模型、多模态模型等提供一站式评测服务。其主要特点如下:

  • 开源可复现:提供公平、公开、可复现的大模型评测方案
  • 全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力
  • 丰富的模型支持:已支持 20+ HuggingFace 及 API 模型
  • 分布式高效评测:一行命令实现任务分割和分布式评测,数小时即可完成千亿模型全量评测
  • 多样化评测范式:支持零样本、小样本及思维链评测,结合标准型或对话型提示词模板,轻松激发各种模型最大性能
  • 灵活化拓展:想增加新模型或数据集?想要自定义更高级的任务分割策略,甚至接入新的集群管理系统?OpenCompass 的一切均可轻松扩展!

2.2 评测方法

OpenCompass 采取客观评测与主观评测相结合的方法。针对具有确定性答案的能力维度和场景,通过构造丰富完善的评测集,对模型能力进行综合评价。针对体现模型能力的开放式或半开放式的问题、模型安全问题等,采用主客观相结合的评测方式。

2.2.1 主观评测

语言表达生动精彩,变化丰富,大量的场景和能力无法凭借客观指标进行评测。针对如模型安全和模型语言能力的评测,以人的主观感受为主的评测更能体现模型的真实能力,并更符合大模型的实际使用场景。 OpenCompass 采取的主观评测方案是指借助受试者的主观判断对具有对话能力的大语言模型进行能力评测。在具体实践中,我们提前基于模型的能力维度构建主观测试问题集合,并将不同模型对于同一问题的不同回复展现给受试者,收集受试者基于主观感受的评分。由于主观测试成本高昂,本方案同时也采用使用性能优异的大语言模拟人类进行主观打分。在实际评测中,本文将采用真实人类专家的主观评测与基于模型打分的主观评测相结合的方式开展模型能力评估。 在具体开展主观评测时,OpenComapss 采用单模型回复满意度统计和

### 书生大模型 L1G100 使用指南 #### 下载文档 为了获取书生大模型L1G100的使用指南及相关文档,建议访问官方GitHub仓库或其他指定资源网站。通常这些平台会提供详细的README文件以及API文档来指导开发者如何下载和配置环境。 #### 安装依赖项 在准备部署之前,需确保本地开发环境中已经安装了必要的软件包和支持库。对于大多数机器学习框架而言,这可能涉及到Python版本的选择、CUDA驱动程序以及其他特定于硬件加速的支持组件。具体步骤可以参照官方提供的快速入门教程[^1]。 ```bash pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113/ ``` 此命令用于安装PyTorch及其相关扩展模块,并指定了适用于NVIDIA CUDA 11.3版本的额外索引URL。 #### 获取预训练模型权重 根据公开资料,在2023年后陆续发布的不同规模参数量级下的书生·浦语系列模型中包含了多种尺寸选项(例如7B, 20B)。用户可以根据自己的需求挑选合适的模型大小进行加载。一般情况下,可以通过Hugging Face Model Hub或者其他公共存储服务直接拉取对应的checkpoint文件。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "internlm-camp4/l1g100" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) ``` 上述代码片段展示了利用Transformers库轻松加载名为`internlm-camp4/l1g100`的大规模语言模型实例的方法。 #### 进行推理测试 一旦完成了前期准备工作之后就可以着手编写简单的脚本来验证整个流程是否正常工作。下面给出了一段简易对话生成的例子作为参考: ```python input_text = "你好啊," inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs, max_length=50) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` 这段代码接收一段输入文本并通过调用generate方法让模型基于给定上下文继续创作后续内容直到达到设定的最大长度为止。 #### 实际应用案例研究 除了理论上的介绍之外,参与由社区组织发起的各种实践活动也是掌握新技术的有效途径之一。比如参加“共学大模型实战营”,不仅可以获得宝贵的实践经验还有机会赢得高性能计算资源支持进一步的研究探索活动[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值