【MAC】DeepSeek 部署到本地

一,DeepSeek 介绍

DeepSeek官网地址Chat with DeepSeek AI – your intelligent assistant for coding, content creation, file reading, and more. Upload documents, engage in long-context conversations, and get expert help in AI, natural language processing, and beyond. | 深度求索(DeepSeek)助力编程代码开发、创意写作、文件处理等任务,支持文件上传及长文本对话,随时为您提供高效的AI支持。https://chat.deepseek.comhttps://chat.deepseek.com

二,本地运行 AI 模型优势

  •  隐私安全:你的所有数据都保留在你自己的机器上,不存在共享敏感信息的风险

  • 免费无广:DeepSeek R1 可免费使用,无需订阅费或使用费。

  • 灵活控制:无需外部依赖即可进行微调和实验。

  • 快速响应:官方及三方访问量过大,延迟非常高,造成卡顿,本地可以避免这种情况。

三,安装流程

1,安装Ollama

直接下载就行了

Ollama官网地址https://ollama.com/https://ollama.com/

2,拉取 DeepSeek R1 模型

刚开始不必要下载所有模型,可以先下载最轻量的模型 deepseek-r1:1.5b

后续流程跑通后,再尝试其他高质量模型的能力。

回到 Ollma 官网,点击 Model

ollama run deepseek-r1:1.5b

四、GUI 体验-ChatBox(待续)

五、如何在MacOS上更换Ollama的模型位置

1,更改Ollama在Mac的环境变量

launchctl setenv OLLAMA_MODELS <你的模型文件夹路径>

2,手动复制原来的模块文件

A)复制原来的模块文件

cp -R ~/.ollama/models <你的模型文件夹路径>

B)重新启动Ollama APP测试是否正常(退出再重新的打开)

C)确认复制没有问题再删除原来的模块文件

ollama list

六、Ollama常见问题文档

ollama/docs/faq.md at main · ollama/ollama · GitHub

七,运行DeepSeek不同模型

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

参考

【1】(干货篇)一文带你将 DeepSeek 部署到本地,并对接至Vscode!

【2】MaktubLOG (maktubcn.info)

【3】如何在MacOS上更换Ollama的模型位置?_哔哩哔哩_bilibili

### 部署DeepSeek本地计算机 #### 环境准备 对于希望在个人计算设备上部署DeepSeek的大规模语言模型,需先确认满足最低硬件条件:具备支持AVX2指令集的CPU、至少16GB RAM以及不少于30GB可用磁盘空间。为了获得更佳性能体验,建议采用配备有NVIDIA GPU(例如RTX 3090及以上型号)、32GB RAM和50GB以上存储容量的机器设置[^1]。 操作系统方面兼容Windows、macOS或Linux平台;另外,在计划利用Open Web UI界面时,则还需事先完成Docker环境搭建工作。 #### 安装Ollama 针对苹果公司生产的便携式电脑产品线——即MacBook系列——其特色在于即使处于离线状态下也能正常使用AI功能来保障用户信息安全和个人隐私不受侵犯。具体操作步骤如下: - **获取并安装Ollama**:访问官方渠道下载适用于MacOS系统的ollama安装包文件,并依照提示指引逐步执行直至结束整个过程[^2]。 ```bash brew install ollama/tap/ollama ``` 此命令通过Homebrew工具快速简便地完成了软件组件引入动作。 - **启动服务** 一旦上述环节顺利完成之后,紧接着便是开启相应后台进程以确保后续交互顺畅无阻: ```bash ollama start ``` 这条语句负责激活由ollama所提供的各项核心服务能力。 #### 使用Open Web UI (可选) 若打算借助图形化管理面板来进行更加直观便捷的操作控制的话,那么接下来就该考虑加入docker容器镜像资源了: - **拉取最新版本image** 执行`docker pull deepseek/open-webui:latest`从而取得最新的open web ui发行版实例副本。 - **运行container** 最后一步则是依据实际应用场景设定参数选项后调用`docker run -p 7860:7860 deepseek/open-webui:latest`使能web端口映射关系以便于外部访问连接。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值