【本地私有部署deepseek并配置优化】

本地私有部署deepseek(不训练)

  • 前言
    • 使用GPU运行模型(不支持会使用cpu)
    • ollama和llama
    • 安装模型
    • 交互软件推荐1 ChatBox

前言

先说说大公司的研发成本吧,预训练:2664K GPU 小时(占 95%),上下文扩展:119K GPU 小时,后训练(监督微调 + 强化学习):5K GPU 小时,小公司或者个人不做AI领域只能完成上下文和强化学习这一部分。
个人想私有部署个玩玩,或者在应用领域进行落地,可以试试将训练好的模型进行私有部署。

使用GPU运行模型(不支持会使用cpu)

因为先安装模型再安装驱动会有各种问题,所以先完成这里的步骤
看起来只是用了cpu没使用gpu
看起来正在用cpu跑模型,需要配置GPU支持
以N卡为例

  1. 先检测兼容性
    https://developer.nvidia.com/cuda-gpus
    命令行输入nvidia-smi查找版本信息
    根据版本号下载AI驱动https://developer.nvidia.com/cuda-toolkit-archive
    建议cuda v11以上
    查看显卡版本
    本人电脑配置
    在这里插入图片描述
    在这里插入图片描述

默认cuda10.1,但我为了使用更多ai功能安装了cuda12.8版本,配置刚好也是兼容的,能入门了

  1. 照着安装指引安装完驱动
    命令行检测一下nvcc --version

  2. 配置环境变量使用算力显卡驱动
    在这里插入图片描述
    设置Ollama环境变量, CUDA驱动环境变量也需要检查,自定义安装需要手动配置

ollama和llama

这里先使用ollama进行部署
Ollama 下载:https://ollama.com/download
Ollama 官方主页:https://ollama.com
Ollama 官方 GitHub 源代码仓库:https://github.com/ollama/ollama/

下载安装默认C盘,配置环境变量建议改成其他盘
详细教程看:https://github.com/datawhalechina/handy-ollama/blob/main/docs/C2/2.%20Ollama%20%E5%9C%A8%20Windows%20%E4%B8%8B%E7%9A%84%E5%AE%89%E8%A3%85%E4%B8%8E%E9%85%8D%E7%BD%AE.md

环境变量修改了记得重启

安装模型

然后去找模型资源
https://ollama.com/library
排前面就是ds,可以找到很多开源模型,根据配置挑选

安装方式:自己复制安装命令即可

交互软件推荐1 ChatBox

ChatBox 官网地址:https://chatboxai.app/zh 选择ollama并配置api到自己的服务即可
配置本地模型
如上图配置本地模型
严谨与想象配置和结果丰富度和准确率有关,和人一样,说越多错越多

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值