一个命令,教你使用Ollama在本地部署DeepSeek-R1

文章目录

  • 前言
  • 一、相关简介
    • 1.DeepSeek
    • 2.Ollama
  • 二、安装教程
    • 1.安装Ollama
    • 2.修改模型保存位置
    • 3.下载DeepSeek-R1
  • 总结


前言

        随着大语言模型在各个领域的广泛应用,本地部署成为许多开发者和企业的首选。本地部署不仅可以保护数据隐私,还能减少对云服务的依赖,提升响应速度。DeepSeek-R1作为一种高性能的推理模型,已经在多个任务中展现出卓越的性能。本文将详细介绍如何使用Ollama在本地部署DeepSeek-R1模型。


一、相关简介

1.DeepSeek

        DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,是一家成立于2023年7月的中国人工智能公司。公司专注于开发先进的大语言模型(LLM)及相关技术,致力于突破认知智能的边界。
在这里插入图片描述

2.Ollama

        Ollama 是一个开源框架,旨在简化大型语言模型(LLM)在本地机器上的部署和运行。它提供了一个轻量级且易于扩展的框架,支持多种操作系统(如 macOS、Windows、Linux)以及 Docker 环境。
在这里插入图片描述


二、安装教程

教程总体流程为:安装Ollama,并且使用Ollama拉取deepseek-r1模型到本地并且使用。

1.安装Ollama

Ollama官网:https://ollama.com/

1、下载对应操作系统的安装包。
2、双击安装文件并按照提示完成安装
3、在终端中运行ollama version命令,确认Ollama已正确安装。
ps:这里默认安装C盘,建议不变,模型保存位置可以改,后面介绍。

在这里插入图片描述

出现下图即表示安装成功

在这里插入图片描述


2.修改模型保存位置

新建系统变量中的用户变量,变量名为OLLAMA_MODELS。

在这里插入图片描述


3.下载DeepSeek-R1

1、点击Ollama官网左上角“Models”
2、点击相应的大语言模型。
3、根据自身需求选择部署的规模。
ds提供多种蒸馏版本,如1.5B、7B、8B、14B等,满足不同硬件条件下的使用需求。
根据硬件条件选择合适的DeepSeek-R1模型版本。例如,7B或8B版本适合大多数中高端设备
本次演示选择1.5b版本

在这里插入图片描述

4.在cmd中粘贴上一步所复制的命令并运行,该语言模型开始下载,下载完成后显示如下。
此时,模型会进入交互模式,用户可以通过终端与模型进行对话。

ollama run deepseek-r1:1.5b

在这里插入图片描述


总结

        通过本文,读者可以快速掌握如何在本地使用Ollama部署DeepSeek-R1大模型的全过程。目前,虽然我们已经能够通过命令行实现模型的下载、安装和交互,但这种方式较为生硬,用户体验不够友好。为了进一步提升交互体验,未来计划结合一些开源的可视化工具来优化这一过程。
        例如,Chatbox 是一款支持Ollama的可视化交互界面,能够显著提升用户体验。用户可以通过访问Chatbox官网并使用API Key连接Ollama,从而在图形界面中与DeepSeek-R1模型进行交互。此外,Page Assist 浏览器插件也可以连接到本地Ollama服务,通过网页界面与模型进行交互。
        未来,我们还计划探索更多可视化工具,如Gradio,它可以为本地运行的DeepSeek-R1模型提供一个简单的Web界面,支持多模态内容的交互。通过这些工具的结合,我们将能够为用户提供更加直观、便捷的交互体验,让DeepSeek-R1模型的本地部署和使用变得更加高效和人性化。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

慢热型网友.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值