Mac M3/M4 本地部署Deepseek并集成vscode

Mac 部署

  1. 使用傻瓜集成平台ollama,ollama平台依赖于docker,Mac的M3/M4 因doesn’t have VT-X/AMD-v enabled 所以VB,VM无法使用,导致docker无法启动,需要使用docker的替代品podman, 它完全兼容docker
brew install podman

个人没有成功安装docker,安装成功同学可以分享下经验。
2. 安装ollama

brew install --cask ollama 
  1. 拉取deepseek
# r1聊天模型
ollama pull deepseek-r1:1.5b
# 或者
ollama pull deepseek-r1:8b
# 编码版
ollama pull deepseek-coder

更多版本参见
https://ollama.com/library/deepseek-r1/tags
4. 终端运行

ollama run deepseek-r1:1.5b

在这里插入图片描述

  1. 终端还是看着不方便,集成vscode中
    A. 安装插件codeGPT
    在这里插入图片描述

B. 注册codeGPT - 这玩意需要一个账号,用Gmail或者Github账号第三方注册登录
C. codeGPT的窗口
在这里插入图片描述
在这里插入图片描述

可以快乐的玩耍了!

Linux部署

没有验证,应该也比较简单,没有验证,命令应该是这个

curl -fsSL https://ollama.com/install.sh | sh ollama run deepseek-r1:7b

私有化部署价值

  1. 和工作环境融为一体,提高工作效率
  2. 无信息被泄露的安全问题
  3. 完全免费,节约一丢丢成本
  4. 虽然不是满血模型,同样可以感受deepseek的优势
### MacBook Pro M3本地部署 DeepSeek 模型使用教程 #### 准备工作 为了成功在配备M3芯片MacBook Pro上部署DeepSeek大模型,需提前完成一系列准备工作。这包括但不限于确认操作系统是最新的macOS版本,安装必要的依赖库和工具链。对于硬件条件而言,虽然提供的参考资料提及了Apple Silicon版Mac的选择[^2],但具体到M3型号,建议验证该设备是否满足官方最低配置需求。 #### 部署环境搭建 针对特定架构优化过的预编译包能够显著简化安装流程。鉴于目标平台为基于ARM架构设计的新一代苹果笔记本电脑,应优先考虑获取适用于此类型的软件分发文件。通过访问指定资源链接可以找到适合不同计算能力级别的多个选项[^3]。值得注意的是,在选择合适版本时应注意兼容性和性能之间的平衡。 #### 安装过程指导 按照所选发行版附带的说明文档逐步执行命令行指令来完成整个设置操作。通常情况下会涉及到创建虚拟环境、克隆仓库、调整参数配置等方面的工作。考虑到个人计算机的具体情况可能会有所差异,因此强烈推荐仔细阅读相关指南中的每一个细节部分以确保万无一失。 #### 测试调优环节 一旦初步集成完毕之后便进入了至关重要的检验阶段。此时可以通过运行一些简单的样例程序来进行基本的功能性验证;如果一切正常,则可进一步深入探究诸如响应时间、吞吐量之类的量化指标以便于后续改进措施制定。此外还应该密切关注日志输出信息以防万一出现问题无法及时察觉。 #### 常见故障排查技巧 即使遵循上述所有步骤也难免会出现意外状况发生。当面对难以解决的技术难题时不妨尝试查阅社区论坛或者联系开发者团队寻求外部支持。同时积累经验教训有助于形成一套属于自己的应急处理机制从而提高工作效率减少不必要的麻烦。 ```bash # 示例:初始化项目结构 git clone https://github.com/example/deepseek-mac-deployment.git cd deepseek-mac-deployment conda create -n deepseek python=3.9 source activate deepseek pip install -r requirements.txt ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值