Win11系统本地部署DeepSeek-R1-Distill-Qwen-7B

《DeepSeek大模型高性能核心技术与多模态融合开发(人工智能技术丛书)》(王晓华)【摘要 书评 试读】- 京东图书

本实验是2.3节的补充内容。本实验利用ollama和Chatbox工具在本地部署DeepSeek模型,目的是使读者对本地运行DeepSeek有个感性认识。

(1)下载 ollama。本地操作系统为win11,首先浏览器访问ollama官网www.Ollama.com,按页面提示下载OllamaSetup.exe安装文件。

(2)安装ollama。双击下载下来的文件,按安装向导的引导把ollama缺省安装到系统盘上,比如我的默认安装目录为C:\Users\xiayu\AppData\Local\Programs\Ollama,安装向导会自动在系统的Path环境变量中加上这个安装目录。

安装成功后,在桌面右下角收起来的图标中能发现ollama正在运行。

当然,读者也可以把ollama自定义安装到别的目录中,比如安装到D:\Models\Ollama的命令为OllamaSetup.exe /DIR="D:\Models\Ollama"。安装完成后,在终端上运行一下ollama -v命令,如果能打印出版本号,说明Ollama已经安装成功。

(3)通过Ollama官网下载DeepSeek-R1模型,首先到Ollama官网确认一下需要下载的DeepSeek模型类型,https://ollama.com/library/deepseek-r1。

由于我的电脑N卡是3060、内存32G,尽量下一个参数量最小的模型,因此选定DeepSeek-R1-Distill-Qwen-1.5B,其下载命令为ollama pull deepseek-r1:1.5b或者ollama run deepseek-r1:1.5b。当然,读者可以根据自己电脑的配置情况,选择参数量更大的模型下载测试。

(4)在本地Win11系统打开管理员终端,输入命令ollama run deepseek-r1:1.5b,则会下载DeepSeek-R1-Distill-Qwen-1.5B模型。

(5)DeepSeek-R1-Distill-Qwen-1.5B模型下载成功后,这个模型就直接在本地系统上运行起来了,接下来我们就可以跟模型交互,下图是问模型“你是谁”的结果。

(6)这个终端交互起来还是有点不方便,我们可以通过WebUI工具Chatbox跟模型交互。到Chatbox官网https://chatboxai.app/下载Windows系统的Chatbox。

(7)下载下来的文件名Chatbox-1.10.2-Setup.exe,读者双击此安装文件,安装成功后再桌面上点击Chatbox图标运行程序。点击主界面左下方的“设置”,会弹出的“设置”窗口,在“模型”选项卡中选择模型类型,这里根据我们安装模型的提供方选择“OLLAMA API”,Chatbox能检测到通过OLLAMA 运行起来的模型,选择你要对话的模型,比如“deepseek-1:1.5b”,点击“保存”按钮保存设置。

(8)接下来就能在Chatbox提供的Web界面上与模型进行交互了。比如,问模型“北京旅游线路”,结果如下。

总之,利用Ollama和Chatbox可以在本地局域网上部署DeepSeek模型,方便本地局域网用户使用DeepSeek,这是一种比较简单方便的快速部署方法,相关配置细节读者请自行百度摸索。

(9)通过代码访问本地DeepSeek,在PyCharm中打开testollama.py程序,运行之,结果如下。本地部署DeepSeek模型的补充实验到此顺利完成。

### 部署 DeepSeek-R1-Distill-Qwen-7B 模型的本地环境设置 为了成功部署 DeepSeek-R1-Distill-Qwen-7B 模型,在本地环境中需遵循特定配置与安装流程[^2]。 #### 准备工作 确保计算机满足最低硬件需求,特别是足够的 GPU 显存来支持该规模的大模型运算。对于 Qwen-7B 版本而言,建议至少配备有 24GB VRAM 的 NVIDIA RTX 3090 或更高级别的显卡设备。 #### 软件依赖项安装 创建一个新的 Python 环境并激活它: ```bash conda create -n deepseek python=3.8 conda activate deepseek ``` 接着安装必要的库文件和支持工具包: ```bash pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113 pip install transformers sentencepiece accelerate optimum ``` #### 下载预训练权重 通过 Hugging Face 提供的服务获取已发布的 DeepSeek-R1-Distill-Qwen-7B 权重参数,并将其保存到指定目录下以便后续加载使用[^1]。 ```python from huggingface_hub import snapshot_download snapshot_dir = './models/qwen-7b' repo_id = "DeepSeek/R1-Distill-Qwen-7B" snapshot_download(repo_id=repo_id, cache_dir=snapshot_dir) ``` #### 加载模型实例化对象 编写一段简单的脚本来初始化模型实例,并测试其基本功能是否正常运作。 ```python import torch from transformers import AutoModelForCausalLM, AutoTokenizer device = 'cuda' if torch.cuda.is_available() else 'cpu' model_name_or_path = "./models/qwen-7b" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained(model_name_or_path).to(device) input_text = "你好世界!" inputs = tokenizer(input_text, return_tensors="pt").to(device) outputs = model.generate(**inputs) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` 完成上述操作之后,即实现了 DeepSeek-R1-Distill-Qwen-7B 在个人电脑上的顺利部署运行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值