本地部署DeepSeek教程(Mac版本)

 第一步、下载 Ollama

官网地址:Ollama

点击 Download 下载

 我这里是  macOS  环境  以  macOS  环境为主

下载完成后是一个压缩包,双击解压之后移到应用程序:

打开后会提示你到命令行中运行一下命令,附上截图:

 若遇上图类似报错,请重试  一般是因为网络问题 

等待下载完成  输入以下代码:

ollama -v

如下图所示,则为成功

第二步:在 ollama 官网找到  deepseek r1 模型并下载

选择你的模型,并运行终端命令下载:

条件有限,选择1.5b试试水:

静静等待下载完成,输入下方命令开始对话:

ollama run deepseek-r1:1.5b

命令行会自动判断当前是否已经安装了该模型

已经安装则直接运行

出现 success 则为安装成功

 输入 /bye 则退出对话

### 使用Ollama部署本地DeepSeek教程 #### 准备工作 为了顺利使用Ollama工具在本地环境中部署DeepSeek模型,需先确认操作系统支持情况并完成必要的软件安装。对于不同操作系统的具体步骤有所差异。 #### Mac ARM系统部署指南 针对Mac ARM架构设备的具体部署流程如下: - **安装Ollama** 需要确保已正确安装适用于MacOllama工具[^2]。 - **获取DeepSeek离线模型** 执行命令`ollama run deepseek-r1:1.5b`来启动特定版本(1.5B参数量)DeepSeek模型实例[^3]。 #### Windows系统部署指南 对于Windows用户的部署过程则略有区别: - **下载与安装Ollama** 访问官方网站下载对应平台的安装包(`ollama setup.exe`)并执行安装向导[^4]。 - **设置环境变量** 创建指定文件夹用于存储模型数据,并通过命令提示符设定相应环境变量: ```batchfile set OLLAMA_MODELS=E:\ollama set OLLAMA_HOST=127.0.0.1:8000 set OLLAMA_ORIGINS=* ``` - **验证安装状态** 输入`ollama -v`检查是否能正常显示版本信息以确认安装无误。 - **加载DeepSeek模型** 利用指令`ollama run deepseek-r1:7B`或选择更轻量化版本(例如1.5B),依据实际硬件条件决定最优选项。 以上即为利用Ollama实现跨平台本地部署DeepSeek AI模型的基础方法论概述。值得注意的是,尽管上述说明涵盖了主要的操作要点,但在实践过程中仍可能遇到各种细节上的挑战,因此建议密切关注官方文档更新和技术社区交流动态以便及时解决问题。
评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

某公司摸鱼前端

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值