Deepseek本地部署与离线部署(以及ollama模型拉取报错)

  • 需求:在机器A联网下载模型及依赖环境,再拷到不联网机器B,实现离线部署。

  • 方案:ollama+Chatbox+AnythingLLM

  • 会遇到的报错:ollama拉取模型错误
    1.本地部署
    1.1 本地部署ollama
    在这里插入图片描述

  • 联网下载ollama安装包

    • 官网下载(慢)
    • Git上用迅雷下载(快)
    • 或自行解决网络问题
  • ollama默认安装在C盘,将安装包放到D盘。

    • 点击地址栏-清空-cmd-OllamaSetup.exe /DIR=D:\Ollama
    • 输入格式:安装软件包名.exe /DIR=安装包所在目录
    • 自动进入ollama安装步骤
  • 修改大模型存储目录

    • 在安装目录D:Ollama中,创建models文件夹。
    • 新建该文件夹的环境变量,变量名OLLAMA_MODELS,变量值:浏览目录-D盘-Ollama-models
    • 删除原C盘-用户文件夹中,.ollama文件夹里原先的models文件夹
  • 检查ollama安装情况

    • cmd——>Ollama --version
    • 若出现版本信息,则安装成功。
      1.2 下载deepseek
      [图片]
    • </
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值