- 博客(9)
- 收藏
- 关注
原创 第四期书生大模型实战闯关(L1G6000)
运用以下命令创建评测模型环境。(注意最后huggingface_hub和手册命令有所区别,如果使用手册命令会报错显示ImportError: cannot import name 'cached_download' from 'huggingface_hub',该错误在huggingface_hub0.26版本中被广泛讨论,但0.25版本的错误可能被忽略了)再执行touch opencompass/configs/datasets/demo/demo_cmmlu_chat_gen.py代码生成新文件。
2024-12-06 18:02:39
420
原创 第四期书生大模型实战闯关(L1G5000)
这部分至关重要,对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。模型转换的本质其实就是将原本使用 Pytorch 训练出来的模型权重文件转换为目前通用的 HuggingFace 格式文件,那么我们可以通过以下命令来实现一键转换。手册上先印的streamlit命令,但是在执行时,需要先使用CMD命令监听端口,之后streamlit命令生成的网址才能打开。在cp命令执行时,出现以下错误。
2024-11-28 12:04:12
1105
原创 第四期书生大模型实战闯关(L1G4000)
开发机选择30%A100,cuda版本为12.2。采用 conda create -n llamaindex python=3.10命令创建环境。采用conda env list命令查看环境安装python依赖包代码为pip install einops==0.7.0 protobuf==5.26.1安装Llamaindex和相关的包:注意激活环境很重要,否则可能安装到base环境中。注意有时环境可能在安装过程中卡死,使得环境对应内容下载下来,但是环境没有显示。并且再次安装显示环境已存在。
2024-11-19 20:03:59
433
原创 第四期书生大模型实战闯关(L1G3000)
strawberry”中的“r”可谓是检验大模型能力的一个经典问题。本文采用书生浦语大模型进行解决。首先正常提问——"strawberry中有几个r?答复是2个,采用拆分的方法,举一个cat的例子,cat可以拆分成c,a和t。结果是它能拆出来,但是识别不了“straw”中的“r”。面对这种情况,采取拆分单词的方法。在识别“straw”过程中,产生了一个小想法——大模型可能识别不了中间部分的字母,但是可以识别头尾的。所以先询问它“raw”中有几个“r”。
2024-11-12 11:06:14
1024
原创 第四期书生大模型实战闯关(L1G1000)
在一年的开发历程中,书生大模型建设成果颇多。截止今天,书生大模型共开源了三种模型,分别是InternLM,InternLM2和InternLM2.5。按照模型容量,分为7B与20B两种类型,其中7B可以满足个人需要,20B可以满足企业用户需求。其中InternLM2-Chat-20B达到并超越了普通GPT的能力。InternLM2.5-20B-chat达到了GPT-4(20240409)的能力。
2024-11-10 20:29:21
1039
原创 第四期书生大模型实战闯关(L0G4000)
注册Hugging face平台,填写用户名和全名(full name)转到Github线上代码平台采用以下命令在终端中安装库文件。等待库文件安装完毕后,采用以下命令创建python文件。
2024-11-06 10:23:20
310
原创 第四期书生大模型实战闯关(L0G2000)
赎金信问题要求在ransomNote和,判断ransomNote能不能由magazine里面的字符构成。如果可以,返回true;否则返回false。同时要求magazine中的每个字符只能在ransomNote中使用一次。
2024-11-05 08:13:55
243
原创 第四期书生大模型实战闯关(L0G1000)
采用系统提供命令及密码进行登录。在powershell中右键粘贴,显示结果如下:为了实现免密登录的功能,采用 ssh-keygen -t rsa命令生成密钥文件。并使用Get-connect命令读取,注意这里需要读取的文件是后缀名为pub的文件。
2024-11-01 18:12:50
168
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人