大家好,我是 同学小张,+v: jasper_8017 一起交流,持续学习AI大模型应用实战案例,持续分享,欢迎大家点赞+关注,订阅我的大模型专栏,共同学习和进步。
最近大火的DeepSeek-R1,凭借其强大的性能和开源优势,受到了众多用户的关注。它不仅支持代码生成、逻辑推理等复杂任务,还能满足多种应用场景的需求。然而,随着其热度的不断攀升,服务器时常出现繁忙甚至断开链接的情况。

为了确保能够稳定地使用DeepSeek-R1,本地部署无疑是一个绝佳的选择。接下来,我们将详细介绍DeepSeek-R1的本地部署教程。
我的电脑配置:
- 芯片:Apple M4
- 内存:16GB
无GPU,低CPU也可部署。
文章目录
1. 安装工具 Ollama
Ollama 是一个开源的大型语言模型(LLM)服务工具,可以在本地运行开源大语言模型。
1.1 下载 Ollama
下载地址:https://ollama.com/download

1.2 安装 Ollama
以 mac 为例,解压后双击安装就行,跟其他应用一样,移动到 Application。

1.3 运行 Ollama
完成下面三步就算完成,最后一步是在你的终端Terminal中运行,第一次运行会自动安装llama3模型,然后自动运行。

订阅专栏 解锁全文
1585

被折叠的 条评论
为什么被折叠?



