Mac 本地搭建自己的 DeepSeek

注:本文章完全参考网上教程,没有丝毫原创,只是记录一下我本人在安装DeepSeek 的步骤

安装 Ollama

https://ollama.com/download
在这里插入图片描述
下载下来是一个压缩包,解压之后放到Application里面

通过Ollama命令安装 DeepSeek 模型

https://ollama.com/library/deepseek-r1:1.5b
这个网站搜索 deepseek 即可看到对应的模型,可以根据自己电脑配置选择下载
这里我是基础款电脑,所以下载1.5b的
在这里插入图片描述
选择不同的类型之后,右侧会生成命令,复制命令到本地mac执行即可下载
整个过程不知道是否需要访问国外网络,如果需要的话,可能会下载不下来,这个时候可能要寻找一些其他的解决方法

在这里插入图片描述
看到success的时候,说明已经安装完成了,这个时候可以在控制台上提问一些问题测试一下

安装一个UI客户端,提升体验

下面这个地址下载 chatbox,安装
https://chatboxai.app/zh

完成之后打开设置,配置我们刚才安装的模型
在这里插入图片描述
补充:
在配置模型的时候我们也看到有一个 API 域名,说明可以通过域名去远程调用另外一个机器上的模型,
这个文章比较全面
https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide

现在我在聊天窗口已经可以和我的 DeepSeek 进行交流了
在这里插入图片描述

### 局域网内共享本地部署的 DeepSeek 配置 为了实现局域网内的多台计算机能够共同访问由一台主机上运行的 DeepSeek 模型,需完成如下几项主要工作: #### 设置环境变量并启用网络访问功能 确保在执行任何操作前已正确设置了必要的环境变量以便于其他设备识别服务位置。对于 Ollama 的局域网访问启动而言,这一步骤至关重要[^1]。 ```bash export DEEPSEEK_HOST=0.0.0.0 export DEEPSEEK_PORT=8080 ``` 上述命令使得应用程序监听所有可用接口上的指定端口,从而允许来自同一网络中其它机器发起连接请求。 #### 安装支持网络调用的服务组件 考虑到希望达成的目标,在 A 计算机成功安装 DeepSeek 后还需要额外配置以开放给 B 和 C 使用的能力。这里提到 Chatbox 软件具备这样的特性——它不仅限于单点应用而是可以接受通过 HTTP 或 WebSocket 协议传来的外部查询来触发模型推理过程[^2]。 #### 修改防火墙规则或路由器设置 为了让局域网内部的不同客户端顺利抵达服务器所在地址,可能需要调整操作系统自带的安全防护策略或是家庭/办公室 Wi-Fi 设备中的转发参数,具体取决于实际使用的硬件设施情况。 - 对于 Linux/macOS 用户来说,可通过 `iptables` / `pfctl` 命令行工具添加例外; - Windows 平台上则建议利用图形界面下的高级安全中心进行相应设定; 另外一种常见做法是在无线路由管理后台开启特定范围 IP 地址间的互访权限,并将目标 PC 的物理 MAC 绑定固定静态 IPv4 编号方便记忆与维护。 #### 测试连通性和验证效果 最后应当从至少另一台工作站尝试建立 TCP 连接至承载着 AI 引擎实例那方的确切坐标(即之前定义好的公网映射后的子网部分),以此确认整个架构能否正常运作无误。 ```python import requests response = requests.get('http://<A Computer IP>:8080/api/v1/ping') print(response.text) ``` 以上代码片段可用于简单测试目的,其中 `<A Computer IP>` 应替换为实际提供 API 接口的主机名或IP地址。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值