(新年快乐) 在HuggingFace部署大模型,魔搭上传模型——L0G4

(新年快乐!) 在HuggingFace部署大模型,魔搭上传模型——L0G4

(大年初二,新年快乐!!!)

任务1:从Huggingface社区 下载大模型

下载大模型internlm2_5的config.json配置信息,model.safetensors.index.json信息,√

任务2:大模型上传Huggingface平台

把下载好的config.json文件到对应HF平台和魔搭社区平台

任务3:Space上传

在HF平台上使用Spaces并把intern_cobuild部署成功,关键步骤截图。

具体过程

HuggingFace

机器学习界的Github,里面很多开源的ML模型

Hugging Face 最初专注于开发聊天机器人服务。尽管他们的聊天机器人项目并未取得预期的成功但他们在GitHub上开源的Transformers库却意外地在机器学习领域引起了巨大轰动。如今Hugging Face已经发展成为一个拥有超过1,000,000个模型和200,000+个数据集的平台,被誉为机器学习界的GitHub。

Github codespace更方便,相比较internStudio不会有网络问题

需要安装git-lfs 支持大文件系统

使用 huggingface-cli login 命令进行登录,登录后才能把模型挂载到自己的模型文件夹中

使用Git工作流:创建、克隆、更新、提交项目

Hugging face的 space平台,快速将模型部署为可交互web应用.不需要担心后端基础、部署的复杂性。可以使用python库构建spaces,例如Streamlitgradio、或者使用Docker

在这里插入图片描述

CodeSpace是Github推出的线上代码平台,提供了一系列templates,我们这里选择Jupyter Notebook进行创建环境。

创建好环境后,可以进入网页版VSCode的界面,这就是CodeSpace提供给我们的 在线编程环境!!!

打开后在终端安装下面代码的依赖,配置环境

# 安装transformers
pip install transformers==4.38
pip install sentencepiece==0.1.99
pip install einops==0.8.0
pip install protobuf==5.27.2
pip install accelerate==0.33.0

下载7B预训练模型,在线平台部署

下载internlm2_5-7b-chat的配置文件

由于个人GitHub CodeSpace硬盘空间有限(32GB可用),而7B的模型相对较大,这里我们先演示如何下载模型文件夹的特定文件。

考虑到CodeSpace平台上默认的用户权限不是root权限,这里为方便演示直接在工作区创建文件,即 /workspaces/codespaces-jupyter 目录

使用下面命令,创建配置文件,用于写下载模型的配置信息。

touch hf_download_json.py

配置信息如下:(直接粘贴到刚刚新建的文件中)

import os
from huggingface_hub import hf_hub_download

# 指定模型标识符
repo_id = "internlm/internlm2_5-7b"

# 指定要下载的文件列表
files_to_download = [
    {
   "filename": "config.json"},
    {
   "filename": "model.safetensors.index.json"}
]

# 创建一个目录来存放下载的文件
local_dir = f"{
     repo_id.split('/')[1]}"
os.makedirs(local_dir, exist_ok=True)

# 遍历文件列表并下载每个文件
for file_info in files_to_download:
    file_path = hf_hub_download(
        repo_id=repo_id
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值