保姆级DeepSeek本地手动部署

关注、星标公众号,精彩内容每日送达
来源:网络素材

自从春节以来,DeepSeek的热度一直攀升,但很多同学对DeepSeek的相关部署和操作还不熟悉,于是小枣君奋笔疾书,完成了以下本地部署DeepSeek保姆级别的教学,大家可以直接在自己的笔记本电脑上按照如下教程进行部署操作,不需要有代码基础,只要一比一按照如下步骤进行操作即可!

一共三个步骤,10-15分钟完成!

█ 第一步:按照自己的系统安装ollama

网址:https://ollama.com/download

█ 第二步:在ollama官网搜索DeepSeek模型

https://ollama.com/

模型大小与显卡需求(这里大家需要根据自己电脑的显存进行对应模型的下载,显存的查看方式,任务管理器—性能)

如果感觉太麻烦,可以跳过这一步,直接下载最小的1.5b的模型即可,嘿嘿~(因为下面的在终端执行的命令也是按照1.5b来的)

最后一步!坚持住,输入完下面这行代码,就成功了!

█ 第三步:在终端执行命令

ollama run deepseek-r1:1.5b

等待安装即可

接下来,就可以在终端对话框里面和DeepSeek进行交流了!快去试试吧~

(全文完)

图片

想要了解FPGA吗?这里有实例分享,ZYNQ设计,关注我们的公众号,探索

### 保姆 DeepSeek 本地部署教程 #### 准备工作 为了顺利进行 DeepSeek本地部署,需先访问 Ollama 官方网站并下载适用于当前操作系统的安装程序[^2]。 #### 下载与安装 Ollama 平台 前往 Ollama 官网首页,在显著位置有 Download 按钮可供点击。依据个人计算机的操作系统类型(Windows、Linux 或 macOS),挑选合适的版本进行下载。对于 Windows 用户而言,下载完成后通过双击 `.exe` 文件执行安装过程,并按照提示完成软件的安装流程。 #### 获取 DeepSeek 模型 登录至 Ollama 网站后导航到 Models 页面定位所需的具体 DeepSeek 版本。例如 `deepseek-r1:8b` 表明此为具有约80亿参数规模的目标检测预训练模型。选定目标模型后,页面会给出相应的命令用于后续步骤中的调用[^1]。 #### 执行模型加载命令 利用 Windows 自带的命令提示符工具 CMD 来粘贴之前获取到的一条或多条指令以触发模型文件的自动拉取动作。这一步骤可能因所选模型大小不同而有所差异,但通常情况下只需简单地键入像 `ollama run deepseek-r1:8b` 这样的语句就能启动整个进程。 #### 验证部署成果 一旦观察到终端显示 "success" 字样即意味着安装顺利完成。此时可以在同一命令行界面上尝试简单的交互测试,比如输入 `"你是谁"` 查看来自 AI 助手的回答作为验证手段之一。 #### 后续管理 如果希望进一步了解已有的镜像资源状况,可随时借助 `ollama list` 命令来浏览现有实例列表;当准备再次激活某个特定版本的服务时,则继续沿用类似于 `ollama run deepseek-r1:latest` 的方式重启服务[^5]。 ```bash # 列出所有可用的 DeepSeek 实例 ollama list # 使用指定版本启动 DeepSeek ollama run deepseek-r1:8b ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值