搭建DeepSeek-V2-Lite-Chat

纯简单记录

下载模型

vim download.py

from modelscope.hub.snapshot_download import snapshot_download

model_dir1 = snapshot_download('deepseek-ai/DeepSeek-V2-Lite-Chat', cache_dir='/zzzz/xxx/yyyy')  # cache_dir填下你想下载到的目标目录

python download.py执行下载,下载流程如下,
image.png

源文件地址:https://huggingface.co/deepseek-ai/DeepSeek-V

### 安装Miniconda 为了在CentOS环境中顺利安装并配置DeepSeek,首先需要设置好Python环境。通过安装Miniconda来管理不同的Python版本和依赖库是一个不错的选择。 ```bash wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash Miniconda3-latest-Linux-x86_64.sh source ~/.bashrc ``` 完成上述操作之后,可以利用`conda`命令创建一个新的Python虚拟环境[^1]: ```bash conda create --name deepseek_env python=3.9 conda activate deepseek_env ``` ### 准备工作 考虑到DeepSeek-V2.5模型文件体积庞大,在开始之前建议先确认网络连接稳定,并考虑使用工具监控带宽使用情况以便了解下载进度。对于CentOS来说,可以通过下面的方式安装`bwm-ng`用于监视网速变化: ```bash yum install epel-release yum install bwm-ng ``` 这一步骤有助于实时掌握数据传输速率,从而合理安排等待时间[^2]。 ### 配置DeepSeek 接下来就是针对特定需求准备DeepSeek的工作环境。假设目标是运行对话问答服务,则需按照官方说明执行相应脚本前设定必要的环境变量: ```bash export HSA_FORCE_FINE_GRAIN_PCIE=1 export USE_MIOPEN_BATCHNORM=1 ``` 随后可以根据实际应用场景选择合适的预训练模型启动程序。例如要测试文本补全功能可采用如下方式调用`text_completion.py`; 若要实现聊天交互则应改用`chat_completion.py`: ```bash python text_completion.py # 或者 python chat_completion.py ``` 如果尚未获取到所需的预训练权重文件,系统将会依据所选参数自动在线加载对应资源。目前支持两种轻量级变体:“deepseek-ai/DeepSeek-V2-Lite” 和 “deepseek-ai/DeepSeek-V2-Lite-Chat”,分别适用于不同类型的自然语言处理任务[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值