【DeepSeek青桔系列】Ollama 部署 DeepSeek:AI 界的“拼多多”!

博主介绍: 大家好,我是想成为Super的Yuperman,互联网宇宙厂经验,17年医疗健康行业的码拉松奔跑者,曾担任技术专家、架构师、研发总监负责和主导多个应用架构。

近期专注: DeepSeek应用,RPA应用研究,主流厂商产品使用,开源RPA 应用等

技术范围: 长期专注java体系,软件架构,DDD,多年java、golang、.Net、redis、nginx、tomcat、mysql、oracle等经验

业务范围: 对传统业务应用技术转型,从数字医院到区域医疗,从院内业务系统到互联网医院及健康服务,从公立医院到私立医院都有一些经历及理解

*** 为大家分享一些思考与积累,欢迎持续关注公众号:【火星求索】 ***

如果说 AI 领域也有“拼多多”,那 DeepSeek 绝对是当之无愧的性价比之王!它让 AI 开发和训练变得像拼团一样简单,低成本、高效率。而 Ollama,作为一款轻量级的模型部署工具,更是让 DeepSeek 的部署变得像“点外卖”一样轻松。今天,我们就来手把手教你如何用 Ollama 部署 DeepSeek,让你也能轻松玩转 AI!

DeepSeek版本选择模型版本:
  • 入门级:1.5B版本,适合初步测试。
  • 中端:7B或8B版本,适合大多数消费级GPU。
  • 高性能:14B、32B或70B版本,适合高端GPU。

本文机器环境:MacBook Pro M1

DeepSeek版本:deepseek-r1:1.5b

目录

  1. Ollama 是什么?Ollama 的优势

  2. Mac 笔记本安装 Ollama 及成功验证

  3. 使用 Ollama 部署 DeepSeek

  4. DeepSeek 首次运行

  5. 总结及注意事项


1. Ollama 是什么?

Ollama 是一个快速、轻量且易于使用的开源 AI 代理框架,由 Facebook 开发,可以用来托管和运行各种语言模型(LLM),可以实现在您的硬件设备快速部署各种本地大模型,并且提供了一个简单命令行界面,方便用户快速部署。

  • 轻量:Ollama 不占用大量资源,适合个人开发者和小团队使用。

  • 快速:从模型上传到部署,只需几条命令,几分钟就能搞定。

  • 易用:无需复杂的配置,小白也能轻松上手。

Ollama 支持多种操作系统包括:

  • macOS:适用于所有现代版本的macOS。
  • Windows:支持Windows 10及更高版本。
  • Linux:支持多种Linux发行版,如Ubuntu、Fedora等。
  • Docker:通过Docker容器,Ollama可以在几乎任何支持Docker的环境中运行。

2. Mac 安装 Ollama 

在 Mac 上安装 Ollama 非常简单,只需几步:

步骤 1:安装 Ollama 

官网地址下载: Ollama

网盘下载地址:https://download.youkuaiyun.com/download/charry0110/90340456

步骤 2:下载Ollama-darwin.zip解压安装

解压Ollama-darwin.zip直接双击安装即可

步骤 3:验证安装

ollama --version

如果显示版本号,恭喜你,Ollama 已经成功安装!


3. 使用 Ollama 部署 DeepSeek

步骤 1:部署 DeepSeek 模型

第一次运行Ollama下载模型,deepseek-r1:1.5b大小1G

ollama run deepseek-r1:1.5b

deepseek-r1 部署其他命令参考

ollama run deepseek-r1:1.5b# 1.5B版本
ollama run deepseek-r1:7b  # 7B版本
ollama run deepseek-r1:8b  # 8B版本
ollama run deepseek-r1:14b # 14B版本
ollama run deepseek-r1:32b # 32B版本

步骤 2:验证 DeepSeek 服务

几分钟后,你的 DeepSeek 模型就会部署完成,可以直接运行对话

步骤 3:启动Ollama服务验证

通过访问 http://localhost:11434 来与模型进行交互。


4. DeepSeek 首次运行

部署完成后,你可以通过以下命令测试模型:

ollama run deepseek-r1:1.5b

如果模型返回了预期的结果,说明 DeepSeek 已经成功运行!


5. 总结及注意事项

虽然 Ollama 轻量,但 DeepSeek 运行时可能需要一定的计算资源,建议在性能较好的设备上运行。

默认 Ollama 会使用您的 CPU 来运行模型,而并非 GPU,对于那种比较小的模型用CPU+集成显卡也能较好的进行工作,如果您的计算机中有 AMD 或者 Nvidia 独立显卡,并且您想运行更大的模型或更快的响应速度,您需要安装CUDA Toolkit以更好地利用独立显卡。

DeepSeek R1 模型对应的硬件配置参考。

如果希望 Ollama 使用 GPU 加速,需要确保已正确安装 GPU 驱动和相关库,并在启动之前配置好环境变量。


最后

如果你觉得这篇文章对你有帮助,欢迎点赞、转发、评论!

公众号【火星求索】发送deepseek即可获取【清华大学DeepSeek 从入门到精通 系列】四连弹,以及可以获取收集整理的各种资料。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

火星求索

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值