部署DeepSeek到windows本地包含报错解决!!!

下载Ollama

官网网址https://ollama.com/download
在这里插入图片描述

安装Ollama

在这里插入图片描述点击Install
安装完成后是没有图标的
按住win+R,输入cmd,点击确认
在这里插入图片描述
在弹出的窗口中输入
ollama -v 回车,显示:ollama version is 0.5.7 就说明安装成功了

下载模型

点击官网的 models,选择适当的模型大小,默认以c盘剩余空间预留的大小为准。点击复制按钮,复制命令ollama run deepseek-r1:32b
在这里插入图片描述

安装模型

窗口中输入复制的命令并回车耐心等待安装完成
在这里插入图片描述

报错解决

出现报错安装失败
Error: Post “http://127.0.0.1:11434/api/show”: read tcp 127.0.0.1:52647->127
解决办法:
结束下面的进程
在这里插入图片描述
修改ollama端口号
ollama serve --port 11451
重新安装ollama run deepseek-r1:32b

安装完成后窗口可以直接提问

在这里插入图片描述

Anythingllm搭建可视化个人知识库、私人ai助手,参考此文,步骤详细

https://blog.youkuaiyun.com/Jjavaer/article/details/145688235?spm=1001.2014.3001.5501

### 使用CPU在本地环境部署DeepSeek #### 环境准备 为了成功部署DeepSeek,在本地环境中需满足一定的硬件和软件条件。 最低配置应具备支持AVX2指令集的CPU、至少16GB内存以及不少于30GB的存储空间[^1]。对于操作系统的选择,可以是Windows、macOS或是Linux中的任意一种。考虑到后续操作便利性,建议提前确认所选系统的兼容性和稳定性。 #### 安装必要组件 由于采用CPU方式进行部署,则无需特别关注GPU驱动等问题。但是仍需确保已正确安装Python解释器及其开发包,并根据个人喜好选择合适的集成开发环境(IDE)辅助编程工作。另外,还需注意的是当计划利用Open Web UI功能时,务必事先完成Docker容器平台的设置过程。 #### 获取并解压源码文件 前往官方仓库下载最新版本的DeepSeek项目压缩包,将其放置于目标机器上的指定路径下之后进行解压缩处理。此步骤完成后即可获得完整的程序框架结构供下一步骤调用。 #### 配置虚拟环境与依赖库管理 创建一个新的Python虚拟环境用于隔离不同项目的相互影响,接着依据README文档内的指示通过pip工具批量安装所需的第三方模块集合。这一步骤至关重要因为它直接影响着整个应用能否正常启动运行。 ```bash python -m venv deepseek_env source deepseek_env/bin/activate # Linux/macOS 或者 `deepseek_env\Scripts\activate` 对于 Windows 用户而言 pip install --upgrade pip pip install -r requirements.txt ``` #### 修改配置参数适应当前计算资源状况 编辑位于根目录下的`.env.example`样例文件复制重命名为`.env`,按照实际情况调整其中涉及的各项设定值比如batch size大小等以匹配现有物理设备的能力范围从而达到最佳性能表现效果。 #### 执行推理脚本验证成果 最后进入包含有`inference.py`入口函数所在的工作区执行如下所示命令来触发预测流程: ```python python inference.py ``` 需要注意的是,鉴于DeepSeek 8B模型本身体积庞大,因此在整个加载过程中可能会消耗较多时间及系统资源,请耐心等待直至最终输出预期的结果为止。同时也要留意是否有任何异常报错信息出现以便及时排查解决潜在隐患问题[^2]。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值