MAC快速本地部署Deepseek (win也可以)

MAC快速本地部署Deepseek (win也可以)

  1. 下载安装ollama
    地址: https://ollama.com/
    Ollama 是一个开源的大型语言模型(LLM)本地运行框架,旨在简化大模型的部署和管理流程,使开发者、研究人员及爱好者能够高效地在本地环境中实验和集成最新模型
    一路下一步
    安装好后
    搜索需要的大模型

在这里插入图片描述
2. 根据自己需求, 选择合适的大模型版本
3. 本地电脑配置较差,我安装的14b
地址:
在这里插入图片描述
4. 复制命令 ollama run deepseek-r1:14b 到终端运行
在这里插入图片描述
在这里插入图片描述

  1. 看到 success就成功了
  2. 可以开始对话了 (首次较慢)
    在这里插入图片描述

进阶

不想用黑窗口的话 可以下载cherry Studio
Cherry Studio 是一款开源的多模型 AI 桌面客户端,专为专业用户设计,支持跨平台操作(Windows/macOS/Linux),集成 300+ 大语言模型和本地化部署能力,旨在简化 AI 技术的应用流程,提升工作效率
简单配置就能使用了(网上教程可多 就不赘述了)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值