OpenCompass 大模型评测

本文讨论了在评估大模型时,如何使用opencompass工具处理客观和主观问题,涉及expression-based方法的应用、数据污染的影响以及如何通过TURBOMINDAPI进行评测。实践中遇到的错误和解决步骤也进行了分享。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学习:https://www.bilibili.com/video/BV1Gg4y1U7uc/?spm_id_from=333.788&vd_source=d5e90f8fa067b4804697b319c7cc88e4
文档:https://github.com/InternLM/tutorial/blob/main/opencompass/opencompass_tutorial.md
repo: https://github.com/open-compass/opencompass
了解大模型评测,完成作业
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
客观题基于rollbase。回答形式不一样,但是客观上都是对的。基于表达式的方法提取关键词,对了就是客观正确的。
在这里插入图片描述
主管题就是要靠人工打分,用模型评价。用GPT4自动化工具去评价。
在这里插入图片描述
很多问题其实是一个意思,修改prompt的形式,如果答得不好说明鲁棒性差。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
【测试集混入训练集】数据污染问题,导致精确度虚高。有望使用工具进行检测。

实践

  • 在这里插入图片描述
    发现错误:
    在这里插入图片描述
    ModuleNotFoundError: No module named ‘opencompass’
    发现安装opencompass的时候需要:source activate opencompass
conda create --name opencompass --clone=/root/share/conda_envs/internlm-base
source activate opencompass # 不是conda
git clone https://github.com/open-compass/opencompass
cd opencompass
pip install -e .

重新进入环境并且pip install -e .
在这里插入图片描述
成功得到评测结果:
在这里插入图片描述

  • 主观测评需要使用另外一个模型对当前被测模型进行评价:本次案例使用的是aligenbench
    在这里插入图片描述
    在这里插入图片描述

  • datasets可以设置最大输出长度,不用每个模型都针对性的调整,datasets里面的值会覆盖掉models里面设置的。

  • 断点续存可以在配置文件后加入:--reuse latest
    在这里插入图片描述

  • 主观推理不能太归一,这样的话表达反而不好,这时候可以额外加入generation—kwargs参数中的do—sample=True
    以及其他的相关参数:
    在这里插入图片描述

OpenCompass 支持分别通过 turbomind python API 评测数据集。

准备好测试配置文件configs/eval_internlm_turbomind.py,但是结果好像并不如意。待修正~
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值