(新年快乐!) 在HuggingFace部署大模型,魔搭上传模型——L0G4
(大年初二,新年快乐!!!)
任务1:从Huggingface社区 下载大模型
下载大模型internlm2_5的config.json配置信息,model.safetensors.index.json信息,√
任务2:大模型上传Huggingface平台
把下载好的config.json文件到对应HF平台和魔搭社区平台
任务3:Space上传
在HF平台上使用Spaces并把intern_cobuild部署成功,关键步骤截图。
具体过程
HuggingFace
机器学习界的Github,里面很多开源的ML模型
Hugging Face 最初专注于开发聊天机器人服务。尽管他们的聊天机器人项目并未取得预期的成功但他们在GitHub上开源的Transformers库却意外地在机器学习领域引起了巨大轰动。如今Hugging Face已经发展成为一个拥有超过1,000,000个模型和200,000+个数据集的平台,被誉为机器学习界的GitHub。
Github codespace更方便,相比较internStudio不会有网络问题
需要安装git-lfs
支持大文件系统
使用 huggingface-cli login
命令进行登录,登录后才能把模型挂载到自己的模型文件夹中
使用Git工作流:创建、克隆、更新、提交项目
Hugging face的 space平台,快速将模型部署为可交互
的web应用
.不需要担心后端基础、部署的复杂性。可以使用python库构建spaces,例如Streamlit
、gradio
、或者使用Docker
CodeSpace是Github推出的线上代码平台,提供了一系列templates,我们这里选择Jupyter Notebook进行创建环境。
创建好环境后,可以进入网页版VSCode的界面,这就是CodeSpace提供给我们的 在线编程环境!!!
打开后在终端安装下面代码的依赖,配置环境
# 安装transformers
pip install transformers==4.38
pip install sentencepiece==0.1.99
pip install einops==0.8.0
pip install protobuf==5.27.2
pip install accelerate==0.33.0
下载7B预训练模型,在线平台部署
下载internlm2_5-7b-chat的配置文件
由于个人GitHub CodeSpace硬盘空间有限(32GB可用),而7B的模型相对较大,这里我们先演示如何下载模型文件夹的特定文件。
考虑到CodeSpace平台上默认的用户权限不是root权限,这里为方便演示直接在工作区创建文件,即 /workspaces/codespaces-jupyter 目录
使用下面命令,创建配置文件,用于写下载模型的配置信息。
touch hf_download_json.py
配置信息如下:(直接粘贴到刚刚新建的文件中)
import os
from huggingface_hub import hf_hub_download
# 指定模型标识符
repo_id = "internlm/internlm2_5-7b"
# 指定要下载的文件列表
files_to_download = [
{
"filename": "config.json"},
{
"filename": "model.safetensors.index.json"}
]
# 创建一个目录来存放下载的文件
local_dir = f"{
repo_id.split('/')[1]}"
os.makedirs(local_dir, exist_ok=True)
# 遍历文件列表并下载每个文件
for file_info in files_to_download:
file_path = hf_hub_download(
repo_id=repo_id