(1)HuggingFace在Linux上部署与模型下载

部署运行你感兴趣的模型镜像

1.简介

HuggingFace 是一个专注于自然语言处理(NLP)和机器学习领域的开源平台和社区,旨在为开发者和研究人员提供高效的工具和资源来构建、训练和部署人工智能模型。目前主流的两个开源大模型平台分别是HuggingFace、ModelScope。
HuggingFace:类似于github,模型比较全,但是需要科学上网;
ModelScope:阿里开源的大模型平台,模型不是很全,速度比较快;
HuggingFace的优点:
●丰富的预训练模型资源:
广泛的适用性:Hugging Face提供了大量的预训练模型,这些模型已经在海量的数据上进行了训练,能够处理各种自然语言处理任务,如文本分类、情感分析、问答、机器翻译等。无论您是从事学术研究、商业应用还是个人项目开发,都可以找到适合的预训练模型,节省大量从头训练模型的时间和资源。
高质量与不断更新:其预训练模型经过了专业的训练和优化,具有较高的性能和准确性。而且,Hugging Face平台不断更新和改进模型,以适应不断变化的自然语言处理需求和技术发展。
●方便的工具和库:
Transformers库:Hugging Face的Transformers库是自然语言处理领域的重要工具,它支持多种预训练模型的加载、使用和微调,如BERT、GPT、RoBERTa等。该库提供了简单易用的接口,使得开发者可以轻松地将这些强大的模型集成到自己的项目中,快速实现自然语言处理功能。
数据集管理工具:Hugging Face提供了方便的数据集管理工具,如Datasets库,可以帮助用户轻松地下载、处理和管理各种公开的数据集。这使得数据的准备工作变得更加高效,减少了数据处理过程中的繁琐操作。

2.模型下载

●在conda上创建虚拟环境

# 创建huggingface_env虚拟环境
conda create -n huggingface_env python=3.11
# 然后激活虚拟环境
conda activate huggingface_env

●安装huggingface_hub工具

# 安装huggingface_hub工具
pip install -U huggingface_hub

●配置huggingface镜像环境变量
配置huggingface镜像环境变量方式有永久跟临时两种:
◎可以查看环境变量

huggingface-cli env

◎临时配置

# 配置huggingface镜像环境变量
export HF_ENDPOINT=https://hf-mirror.com
export HF_HUB_DOWNLOAD_TIMEOUT=30

◎永久配置

# 编辑profile文件配置huggingface镜像环境变量
vi /etc/profile
# 配置huggingface镜像环境变量
export HF_ENDPOINT=https://hf-mirror.com
export HF_HUB_DOWNLOAD_TIMEOUT=30
# 刷新profile文件使huggingface镜像环境变量生效
source /etc/profile
# 查看huggingface镜像环境变量
echo $HF_ENDPOINT

●创建huggingface大模型目录

# 创建huggingface模型目录
mkdir -p /root/huggingface/models/deepseek-r1-distill-qwen-1.5b

●下载模型

# 模型下载
huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B --local-dir /root/huggingface/models/deepseek-r1-distill-qwen-1.5b --local-dir-use-symlinks False

如图所示:

 参考文献

HuggingFace:https://huggingface.co/

您可能感兴趣的与本文相关的镜像

ACE-Step

ACE-Step

音乐合成
ACE-Step

ACE-Step是由中国团队阶跃星辰(StepFun)与ACE Studio联手打造的开源音乐生成模型。 它拥有3.5B参数量,支持快速高质量生成、强可控性和易于拓展的特点。 最厉害的是,它可以生成多种语言的歌曲,包括但不限于中文、英文、日文等19种语言

### 如何在 Linux 系统中通过 Hugging Face 下载预训练模型 要在 Linux 环境下从 Hugging Face 下载预训练模型,可以按照以下方法操作: #### 使用 `transformers` 库下载模型 可以通过安装 Python 的 `transformers` 库来实现自动化下载和加载模型的功能。以下是具体的操作方式。 1. **安装依赖库** 首先需要确保已安装 `transformers` 和其他必要的依赖项。如果尚未安装,可通过 pip 安装: ```bash pip install transformers ``` 2. **编写脚本下载模型** 编写一个简单的 Python 脚本来指定所需模型并自动完成下载过程。例如,以下代码用于下载中文 RoBERTa 模型(`hfl/chinese-roberta-wwm-ext`)[^1]: ```python from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("hfl/chinese-roberta-wwm-ext") # 加载分词器 model = AutoModel.from_pretrained("hfl/chinese-roberta-wwm-ext") # 加载模型 ``` 运行此脚本时,Hugging Face 将会自动检测本地是否存在该模型;如果没有,则会从其在线存储库中下载模型文件至默认缓存目录。 3. **设置缓存路径(可选)** 如果希望更改模型保存的位置,可以在初始化前配置环境变量 `TRANSFORMERS_CACHE` 来修改默认缓存位置。例如: ```bash export TRANSFORMERS_CACHE=/path/to/your/cache/directory python download_model.py ``` 4. **处理可能的错误** 在某些情况下可能会遇到网络连接问题或其他异常情况导致无法成功下载模型。此时可以根据提示调整代理设置或者手动下载模型文件[^3]。手动下载完成后需将其放置于正确的缓存目录结构内以便程序能够正常调用。 #### 手动下载模型 对于那些希望通过离线方式进行部署的应用场景来说,也可以选择直接访问 Hugging Face Model Hub 页面找到目标模型页面链接地址后点击进入详情页查看所有可用资源列表进而实施单独获取动作。之后再把它们复制粘贴到相应的工作区当中去即可满足需求。 --- ### 注意事项 当尝试加载大型语言模型时,请注意硬件资源配置是否充足以及是否有足够的磁盘空间容纳这些庞大的数据集。另外还需要确认所使用的Python版本对应框架之间的兼容性关系良好才能保障整个流程顺利完成无误。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值