玩转HF/魔搭/魔乐社区(作业)

任务描述时间
模型下载使用Hugging Face平台、魔搭社区平台(可选)和魔乐社区平台(可选)下载文档中提到的模型(至少需要下载config.json文件、model.safetensors.index.json文件),请在必要的步骤以及结果当中截图。20min
模型上传(可选)将我们下载好的config.json文件(也自行添加其他模型相关文件)上传到对应HF平台和魔搭社区平台,并截图。10min
Space上传(可选)在HF平台上使用Spaces并把intern_cobuild部署成功,关键步骤截图。10min

 GitHub CodeSpace的使用:

在终端复制以下内容

# 安装transformers
pip install transformers==4.38
pip install sentencepiece==0.1.99
pip install einops==0.8.0
pip install protobuf==5.27.2
pip install accelerate==0.33.0

下载internlm2_5-7b-chat的配置文件:

 

touch hf_download_josn.py
import os
from huggingface_hub import hf_hub_download

# 指定模型标识符
repo_id = "internlm/internlm2_5-7b"

# 指定要下载的文件列表
files_to_download = [
    {"filename": "config.json"},
    {"filename": "model.safetensors.index.json"}
]

# 创建一个目录来存放下载的文件
local_dir = f"{repo_id.split('/')[1]}"
os.makedirs(local_dir, exist_ok=True)

# 遍历文件列表并下载每个文件
for file_info in files_to_download:
    file_path = hf_hub_download(
        repo_id=repo_id,
        filename=file_info["filename"],
        local_dir=local_dir
    )
    print(f"{file_info['filename']} file downloaded to: {file_path}")
python hf_download_josn.py

检查运行完之后的目录:

虽然在这里我们没有完全下载internlm2_5-7b-chat模型,但是在实战营课程中,我们的InternStudio平台 的 /root/share 目录下已经提供了InterLM2.5系列的模型,可以找到它们作为model_name_or_path进行使用,如

/root/share/new_models/Shanghai_AI_Laboratory/internlm2_5-7b-chat

  下载internlm2_5-chat-1_8b并打印示例输出:

那么如果我们需想要下载一个完整的模型文件怎么办呢?创建一个python文件用于下载internlm2_5-1_8B模型并运行。下载速度跟网速和模型参数量大小相关联,如果网速较慢的小伙伴可以只尝试下载1.8b模型对应的config.json文件以及其他配置文件。

touch hf_download_1_8_demo.py
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("internlm/internlm2_5-1_8b", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("internlm/internlm2_5-1_8b", torch_dtype=torch.float16, trust_remote_code=True)
model = model.eval()

inputs = tokenizer(["A beautiful flower"], return_tensors="pt")
gen_kwargs = {
    "max_length": 128,
    "top_p": 0.8,
    "temperature": 0.8,
    "do_sample": True,
    "repetition_penalty": 1.0
}

# 以下内容可选,如果解除注释等待一段时间后可以看到模型输出
# output = model.generate(**inputs, **gen_kwargs)
# output = tokenizer.decode(output[0].tolist(), skip_special_tokens=True)
# print(output)

将后面的代码注释:

 Hugging Face Spaces的使用:
这里按着步骤走就好,

create之后,会有一个默认界面,我们复制那个url后,回到codespace继续操作就好。

如果报错:remote: Password authentication in git is no longer supported. You must use a user access token or an SSH key instead.
请再次设置这个项目的验证,这个地方需要用户的Access Tokens(具体获取方式见下文 "2.1.5 模型上传")
git remote set-url origin https://<user_name>:<token>@huggingface.co/<repo_path>
例如:
git remote set-url origin https://jack:hf_xxxxx@huggingface.co/spaces/jack/intern_cobuild/
然后再次git push即可

这里的token是在这里创建的,记得改为write模式,然后,要保存!!!

然后去刷新刚刚的space界面:

 模型上传:

 

### DeepSeek社区介绍 DeepSeek社区是一个专注于AI技术交流与资源共享的平台[^1]。该社区旨在帮助开发者和技术爱好者更好地理解和应用DeepSeek系列产品及相关技术。 #### 官网访问方式 为了直接获取官方资源和支持,可以前往DeepSeek官方网站进行访问。通过浏览器输入网址并进入首页后,在导航栏中寻找指向社区的具体链接或入口。 #### 社区主要功能 - **技术讨论**:提供了一个活跃的技术论坛环境,用户可以在其中提问、分享经验以及参与关于最新进展的话题讨论。 - **项目展示**:允许成员上传自己的作品或者开源项目供他人学习借鉴;同时也支持对优秀项目的推荐和评选活动。 - **文档资料库**:汇集了大量的教程文章、开发手册等教育资源,方便初学者快速上手的同时也满足高级用户的深入研究需求。 - **工具链集成**:除了理论指导外还提供了实际操作层面的支持,比如特定版本模型转换脚本(如`fp8_cast_bf16.py`用于GPU侧转换)[^2]。 #### 使用指南概览 对于初次接触此平台的新手而言: - 推荐先浏览一遍完整的使用入门指南来熟悉界面布局及基本交互逻辑; - 尝试订阅感兴趣的主题板块以便及时接收更新通知; - 积极参与到各类话题下的互动当中去建立人脉关系网络; - 利用好站内搜索功能查找所需信息,例如探索由Imagica社区维护的一系列高质量移动端组件集合[^3]。 ```bash git clone https://github.com/deepseek-ai/DeepSeek-V3.git cd DeepSeek-V3/inference/ python fp8_cast_bf16.py \ --input-fp8-hf-path ./DeepSeek-R1 \ --output-bf16-hf-path ./deepseek-R1-bf16 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值