三步在本地电脑部署 DeepSeek R1

一、下载安装 Ollama

部署DeepSeek要用到 Ollama,它支持多种大模型。

Ollama官网:https://ollama.com/
在这里插入图片描述
在跳转的页面中选择 Download for Windows (为 Windows 系统下载),然后等下载完成。
在这里插入图片描述终端查看是否安装成功ollama --version
在这里插入图片描述

二、下载 DeepSeek-R1

1、进入Ollama官网,找到Models。进入deepseek-r1
在这里插入图片描述

2、进入就可以看到deepseek-r1模型,根据电脑情况选择适合的模型,复制安装模型命令ollama run deepseek-r1:8b
在这里插入图片描述
在这里插入图片描述

三、Chatbox前端搭建

通过第二步的操作,已经部署好DeepSeek,但每次使用都要在终端管理员里操作,相当繁琐。这里可以借助Chatbox,实现网页或客户端操作。

1、下载安装Chatbox

Chatbox官网:https://chatboxai.app/zh

进入官网下载安装Chatbox客户端。
在这里插入图片描述
2、点击设置,选择Ollama API
在这里插入图片描述
API域名设置为http://127.0.0.1:11434,模型选择安装的deepseek-r1:8b

3.至此本地版DS就OK了
在这里插入图片描述

### 本地计算机部署DeepSeek R1模型的原因 #### 优势 DeepSeek R1本地计算机上的部署带来了多方面的显著优势。首先,在性能方面,尽管与云端版本相比可能存在一定差异,但在特定条件下——比如配备高性能显卡的情况下,可以支持更强大的蒸馏模型并加速推理过程[^2]。其次,灵活性也是不容忽视的一点;用户可根据自身的硬件配置挑选适合的模型规格,从而优化资源利用效率[^1]。 #### 必要性 对于某些敏感行业而言,数据隐私保护至关重要,因此将处理流程迁移到内部环境成为必然选择之一。此外,当面临不稳定或受限互联网接入情况时,离线操作能力显得尤为珍贵。再者,企业级应用往往追求更低延迟的服务响应时间,而减少对外部网络依赖有助于达成这一目标[^3]。 #### 应用场景 具体到实际运用层面,金融领域中的风险评估、医疗健康里的诊断辅助以及智能制造环节的质量检测等均能受益于这种模式下的即时反馈特性。特别是在那些对安全性有严格要求的工作环境中,如军事通信或是涉及国家安全的信息分析工作中,确保所有运算都在受控范围内完成更是不可或缺的要求。 ```python # Python伪代码展示如何加载预训练好的DeepSeek R1模型至本地GPU设备 import torch from transformers import AutoModelForCausalLM, AutoTokenizer device = "cuda" if torch.cuda.is_available() else "cpu" model_name_or_path = "./path_to_local_model_directory" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained(model_name_or_path).to(device) def generate_text(prompt): inputs = tokenizer(prompt, return_tensors="pt").input_ids.to(device) outputs = model.generate(inputs) result = tokenizer.decode(outputs[0], skip_special_tokens=True) return result ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值