DeepSeek技术提升,Linux本地部署全攻略

1.Ollama部署

Ollama下载地址

根据自己需求选择版本下载在这里插入图片描述

1.1 安装Ollama

  1. 下载安装脚本并执行
curl -fsSL https://ollama.com/install.sh | sh

1.2 配置Ollama

  1. 配置模型默认存储位置

可以把模型放在数据盘下

#创建目录
[root@10-60-236-43 ~]# mkdir -p /opt/ollama/models

#授予权限
[root@10-60-236-43 ~]# chown -R ollama.ollama /opt/ollama
[root@10-60-236-43 ~]# chmod 755 /opt/ollama
#修改service文件
[root@10-60-236-43 ~]# vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
Environment="OLLAMA_MODELS=/opt/ollama/models"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

#新增三行参数解释
Environment="OLLAMA_MODELS=/opt/ollama/models"   #模型存放得路径
Environment="OLLAMA_HOST=0.0.0.0" #表示接受来自任何网络接口的连接。
Environment="OLLAMA_ORIGINS=*"  #表示允许来自任何来源的跨域请求。

#重新加载,重启
[root@10-60-236-43 ~]# vim /etc/systemd/system/ollama.service
[root@10-60-236-43 ~]# systemctl daemon-reload ; systemctl start ollama
[root@10-60-236-43 ~]# systemctl status ollama
  1. 访问web页面

http://IP:11434/

出现Ollama is running即可
在这里插入图片描述

  1. 检查模型目录
[root@10-60-236-43 opt]# ll ollama/models/
total 0
drwxr-xr-x 2 ollama ollama 6 Feb 25 11:27 blobs
#出现blobs表示模型目录也修改成

1.3 下载deepseek模型

deepseek模型下载地址

根据自己硬件情况下载对应得模型
在这里插入图片描述

  • 模型介绍及硬件需求
模型参数特点适用场景GPU 显存需求CPU 核心数内存需求
1.5B轻量级模型,参数量少,模型规模小适用于轻量级任务,如短文本生成、基础问答等4GB(4-bit 量化)4 核8GB
7B平衡型模型,性能较好,硬件需求适中适合中等复杂度任务,如文案撰写、表格处理、统计分析等8GB(4-bit 量化)8 核16GB
8B性能略强于 7B 模型,适合更高精度需求适合需要更高精度的轻量级任务,如代码生成、逻辑推理等10GB(4-bit 量化)8 核24GB
14B高性能模型,擅长复杂任务,如数学推理、代码生成可处理复杂任务,如长文本生成、数据分析等16GB(4-bit 量化)12 核32GB
32B专业级模型,性能强大,适合高精度任务适合超大规模任务,如语言建模、大规模训练、金融预测等24GB(4-bit 量化 + 多卡)16 核64GB
70B顶级模型,性能最强,适合大规模计算和高复杂任务适合高精度专业领域任务,如多模态任务预处理48GB(4-bit 量化 + 4 卡)32 核128GB
671B超大规模模型,适用于对准确性和性能要求极高的场景适用于大型科研机构进行前沿科学研究、大型企业进行复杂的商业决策分析等无单机方案,需分布式集群256 核以上512GB+
  1. 安装模型

根据模型的大小,等待的时间不同

[root@10-60-236-43 ~]# ollama run deepseek-r1:14b
#注:我下载完这个模型之后 直接运行了 问了几个问题发现可以使用 我就退出了

在这里插入图片描述

  1. 查看模型
[root@10-60-236-43 ~]# ollama list
NAME               ID              SIZE      MODIFIED
deepseek-r1:14b    ea35dfe18182    9.0 GB    2 minutes ago
  1. 体验模型
[root@10-60-236-43 ~]# ollama run deepseek-r1:14b
>>> 你好
<think>
</think>
你好!很高兴见到你,有什么我可以帮忙的吗?
>>> /bye to exit.

2.安装MaxKB可视化页面

此步骤是创建一个web可视化页面,让所有人访问使用的,如果只是自己用在本地装个客户端即可。请看第3步

2.1 下载镜像

[root@10-60-236-43 ~]# docker pull registry.fit2cloud.com/maxkb/maxkb

2.2 运行容器

[root@10-60-236-43 ~]# docker run -d --name=maxkb --restart=always -p 8080:8080 -v /opt/maxkb/postgresql-data:/var/lib/postgresql/data -v /opt/maxkb/python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
8aa309ce8fa15fc38b378815a1d4b67a3dffc41809d53d0bd251085c86b6041f

2.3 配置MaxKB

  1. 访问IP:8080端口

默认账号:admin/MaxKB@123…

  1. 添加模型
    在这里插入图片描述

  2. 选择Ollama

在这里插入图片描述

  1. 填写对应信息

在这里插入图片描述

  1. 创建应用

在这里插入图片描述
在这里插入图片描述

  1. 配置应用

在这里插入图片描述
在这里插入图片描述

  1. 测试deepseek

在这里插入图片描述

3.配置Chatbox AI可视化页面

Chatbox AI地址

  1. 根据自己情况选择
    这里我选择了Windows客户端,是中文的
    在这里插入图片描述

  2. 配置Chatbox

第一次运行会弹出框,选择配置自己的API
在这里插入图片描述

  1. 选择Ollama API

在这里插入图片描述

  1. 配置自己Ollama的地址。云主机提前放开11434

模型下拉框选择咱们下载的模型,可以通过ollama list查看
在这里插入图片描述

  1. 使用deepseek

在这里插入图片描述

成功部署

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值