本地部署DeepSeek教程(Mac版本)

 第一步、下载 Ollama

官网地址:Ollama

点击 Download 下载

 我这里是  macOS  环境  以  macOS  环境为主

下载完成后是一个压缩包,双击解压之后移到应用程序:

打开后会提示你到命令行中运行一下命令,附上截图:

 若遇上图类似报错,请重试  一般是因为网络问题 

等待下载完成  输入以下代码:

ollama -v

如下图所示,则为成功

第二步:在 ollama 官网找到  deepseek r1 模型并下载

选择你的模型,并运行终端命令下载:

条件有限,选择1.5b试试水:

静静等待下载完成,输入下方命令开始对话:

ollama run deepseek-r1:1.5b

命令行会自动判断当前是否已经安装了该模型

已经安装则直接运行

出现 success 则为安装成功

 输入 /bye 则退出对话

### macOS本地部署DeepSeek 对于希望在macOS上实现DeepSeek本地部署的用户而言,操作流程可以分为几个部分来完成。首先,需要前往Ollama官方网站[^2],通过浏览器访问地址 https://ollama.com ,并点击页面上的“Download”,这将引导至下载界面,在这里可以选择适合macOS系统的安装包版本,不论是Intel架构还是M1系列芯片的Mac设备都能找到对应的安装文件。 #### 获取API Key 为了使DeepSeek功能正常运作,获取API Key是一个必要的前置条件。需登录到DeepSeek官方站点申请专属的API Key[^3],这一密钥将在后续配置过程中起到验证身份的作用。 #### 安装iTerm2及其AI插件 考虑到更好的终端体验以及与DeepSeek AI的良好交互,推荐使用iTerm2作为默认终端工具。特别地,要让iTerm2能够调用DeepSeek服务,则还需要额外安装专门设计用于增强此功能的AI Plugin插件。具体做法是从指定链接下载最新版插件压缩包,并将其放置于`/Applications`目录下的适当位置以便iTern2识别加载。 #### 配置环境变量及测试连接 成功安装上述软件之后,下一步就是按照指引设置好相应的环境变量,确保每次启动iTerm2时都能够自动读取之前准备好的API Key信息。完成后记得保存更改并对新设定生效情况进行简单检验——可以通过尝试输入一些简单的指令来确认一切工作正常。 ```bash export DEEPSEEK_API_KEY="your_api_key_here" ``` 最后一步便是重启iTerm2应用,此时应该已经可以在命令行界面上看到由Command + Shift + .触发出来的AI对话窗口了。在这里可以直接键入想要执行的任务描述语句,借助左侧底部按钮激活AI辅助模式来进行更高效的编程或其他类型的工作流处理。
评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

某公司摸鱼前端

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值