DeepSeek本地部署(个人版)

最近deepseek热的飞起,那么我也来搭建一个本地的DeepSeek吧。(跟着热闹)

 个人博客同步:DeepSeek本地部署(个人版) – 付的技术小窝

电脑配置是Win11,显卡4060

第一步:下载ollama。

官方地址:https://ollama.com/

下载安装成功后会出现指令界面

会提示:Run your first model:

根据自己的电脑去选择适配的:

我选的是里面7b和14b的:ollama run deepseek-r1:7b

### DeepSeek 个人版本地部署教程 对于希望在本地环境中运行DeepSeek的用户而言,选择适合个人硬件条件的小规模模型版本至关重要。由于完整的DeepSeek R1版本对计算资源的需求极高——例如满血版可能需要多达16张A100 GPU显卡[^3],这显然超出了大多数用户的承受范围。因此,建议采用简化后的蒸馏小模型版本来进行本地部署。 #### 准备工作 为了顺利部署适用于个人使用的DeepSeek版本,需先确认计算机具备一定的基础配置: - 安装有Python开发环境以及必要的依赖库 - 足够的磁盘空间用于存储预训练模型文件及相关数据集 #### 部署流程 ##### 下载并安装所需工具包 通过官方渠道获取最新发布的DeepSeek客户端软件或命令行接口(CLI),按照提示完成安装过程。如果计划使用CLI方式进行管理,则还需额外下载对应的插件组件[^1]。 ```bash pip install deepseek-cli-plugin ``` ##### 获取授权密钥 访问官方网站注册账号后申请专属API Key,该秘钥将在后续步骤中用来验证身份合法性并解锁特定功能权限。 ##### 加载轻量化模型 考虑到性能因素和个人电脑的实际承载能力,优先选用经过优化处理过的精简型网络结构作为初始加载对象。这类模型虽然参数量较少,但在常见应用场景下的表现依然出色。 ```python from deepseek import load_model model = load_model('distilled_32b') ``` ##### 启动服务端口监听 最后一步是启动后台进程负责接收来自前端应用发出的任务请求,并调用内部算法引擎执行相应操作。此时应指定合适的HTTP/HTTPS端口号以便于外部连接访问。 ```bash deepseek serve --port=8080 ``` 成功搭建之后即可借助浏览器或其他RESTful风格的API测试工具向服务器发送指令,体验由DeepSeek带来的智能化解决方案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值