DeepSeek 本地部署详细教程

最近比较火的一个大模型就是deepseek了。目前几乎所有主流的平台都支持了接入deepseek大模型。下面我们来看看怎么在本地部署和运行一个deepseek大模型。

目前来说最简单的方式就是使用ollama来部署。我们去官网ollama.com下载一下ollama,并安装。

安装完成以后输入ollama -v.看到版本信息以后,就表示安装完成了。

下一步我们开始安装模型,在ollama官网输入deepseek搜索,会列出所有deepseek的模型。这里我们选择deepseek-r1.进入后可以看到r1的不同版本。这些版本是1.5b、7b、8b、14b、32b、70b-直到671b,b是十亿的意思,7b就是含有70亿个参数,671b就是含有6710亿个参数。参数越高当然就是代表模型越强大,但是选择版本要根据你机器的配置来,机器配置不够是无法运行高参数的模型的。这里我们一般的配置可能选择一个7b的模型,自己尝试一下。

在命令行运行ollama run deepseek-r1:7b,他会自动去下载模型。下载完成后我们可以运行命令

ollama list查看一下当前有的模型

这里有个注意事项,ollama默认是安装到C盘的,如果C盘空间不太够,我们需要更改一下模型的下载路径。我们设置一个环境变量,就能更改模型的下载路径了。在系统环境变量里面添加一个OLLAMA_MODELS环境变量,设置你想要存储的位置。

安装完成以后,我们就可以使用了。我们可以通过命令行进行提问;

可以看到CPU都跑满了。我这里是一个普通的办公电脑,并未带显卡的,跑个7B就已经很吃力了。

至此我们就完成了deepseek的本地部署,有兴趣的可以自己去尝试一下

### 部署 Deep Seek 平台或服务 #### 环境准备 对于希望在 Windows 上部署 Deep Seek 的用户来说,硬件配置是一个重要的考量因素。例如,使用 i7-12700F 和 RTX4060Ti 16G 这样的配置可以较为流畅地运行 `deepseek-r1:14b` 模型版本[^2]。 #### 软件安装 为了顺利部署 Deep Seek,可以从 [LM Studio](https://lmstudio.ai/) 官方网站获取必要的软件包并根据操作系统环境选择合适的版本进行下载[^3]。如果关注数据安全性,则推荐采用虚拟机的方式来进行隔离保护。 #### 修改模型存储路径 考虑到默认情况下模型会占用大量 C 盘空间,默认保存于 `C:\Users\用户名\.ollama\models` 文件夹内。为了避免这种情况发生,可以通过调整系统环境变量来改变这一设定: 1. 打开文件资源管理器,右键单击“此电脑”,随后点击“属性”; 2. 在弹出窗口中的左侧菜单里找到“高级系统设置”,接着点击下方的“环境变量”按钮; 3. 在“系统变量”部分新增一项记录,名称设为 `OLLAMA_MODELS` ,其值即为目标储存目录的位置; 4. 完成上述步骤后记得确认更改生效[^4]。 通过以上措施能够有效完成 Deep Seek 的本地部署工作,并且可以根据实际需求灵活调整各项参数以优化性能表现。 ```bash # 设置环境变量 (Windows PowerShell) [System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\models", "Machine") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值