前言
随着大语言模型在各个领域的广泛应用,本地部署成为许多开发者和企业的首选。本地部署不仅可以保护数据隐私,还能减少对云服务的依赖,提升响应速度。DeepSeek-R1作为一种高性能的推理模型,已经在多个任务中展现出卓越的性能。本文将详细介绍如何使用Ollama在本地部署DeepSeek-R1模型。
一、相关简介
1.DeepSeek
DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,是一家成立于2023年7月的中国人工智能公司。公司专注于开发先进的大语言模型(LLM)及相关技术,致力于突破认知智能的边界。

2.Ollama
Ollama 是一个开源框架,旨在简化大型语言模型(LLM)在本地机器上的部署和运行。它提供了一个轻量级且易于扩展的框架,支持多种操作系统(如 macOS、Windows、Linux)以及 Docker 环境。

二、安装教程
教程总体流程为:安装Ollama,并且使用Ollama拉取deepseek-r1模型到本地并且使用。
1.安装Ollama
Ollama官网:https://ollama.com/
1、下载对应操作系统的安装包。 2、双击安装文件并按照提示完成安装 3、在终端中运行ollama version命令,确认Ollama已正确安装。 ps:这里默认安装C盘,建议不变,模型保存位置可以改,后面介绍。

出现下图即表示安装成功

2.修改模型保存位置
新建系统变量中的用户变量,变量名为OLLAMA_MODELS。

3.下载DeepSeek-R1
1、点击Ollama官网左上角“Models”
2、点击相应的大语言模型。
3、根据自身需求选择部署的规模。 ds提供多种蒸馏版本,如1.5B、7B、8B、14B等,满足不同硬件条件下的使用需求。 根据硬件条件选择合适的DeepSeek-R1模型版本。例如,7B或8B版本适合大多数中高端设备
4.在cmd中粘贴上一步所复制的命令并运行,该语言模型开始下载,下载完成后显示如下。 此时,模型会进入交互模式,用户可以通过终端与模型进行对话。

ollama run deepseek-r1:1.5b

总结
通过本文,读者可以快速掌握如何在本地使用Ollama部署DeepSeek-R1大模型的全过程。目前,虽然我们已经能够通过命令行实现模型的下载、安装和交互,但这种方式较为生硬,用户体验不够友好。为了进一步提升交互体验,未来计划结合一些开源的可视化工具来优化这一过程。
例如,Chatbox 是一款支持Ollama的可视化交互界面,能够显著提升用户体验。用户可以通过访问Chatbox官网并使用API Key连接Ollama,从而在图形界面中与DeepSeek-R1模型进行交互。此外,Page Assist 浏览器插件也可以连接到本地Ollama服务,通过网页界面与模型进行交互。
未来,我们还计划探索更多可视化工具,如Gradio,它可以为本地运行的DeepSeek-R1模型提供一个简单的Web界面,支持多模态内容的交互。通过这些工具的结合,我们将能够为用户提供更加直观、便捷的交互体验,让DeepSeek-R1模型的本地部署和使用变得更加高效和人性化。
我们该怎样系统的去转行学习大模型 ?
很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!
在这个版本当中:
第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包分享出来, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

三、大模型系列视频教程(免费分享)

四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的
核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码,免费领取

8507

被折叠的 条评论
为什么被折叠?



