使用Ollama离线部署deepseek

背景

公司需要部署一套内部的deepseek大模型,服务器是OpenEuler系统,没有外网,只能内部VPN访问。

1.离线下载安装Ollama

  1. 登录github,搜索ollama,进入到ollama的项目库,进入到releases库,查看历史版本。
    在这里插入图片描述

找到自己系统适用的版本

  1. 下载之后导入到需要部署的机器上,我的是Euler系统,安装目录在/usr/local:
tar -zxvf ollama-linux-amd64.tgz -C /usr/local
#解压完成后给予执行权限
sudo chmod +x /usr/local/bin/ollama
#执行ollama
ollama --version

如上显示已成功安装ollama

2.离线下载安装deepseek

  1. 在本地使用ollama
#本地先拉取deepseek-r1
ollama pull deepseek-r:1.5b

在这里插入图片描述

  1. 生成modelfile文件,并下载权重
ollama show deepseek-r1:1.5b --modelfile

生成数据如下

# Modelfile generated by "ollama show"
# To build a new Modelfile based on this, replace FROM with:
# FROM deepseek-r1:1.5b

FROM /home/user/.ollama/models/blobs/sha256-aabd4debf0c8f08881923f2c25fc0fdeed24435271c2b3e92c4af36704040dbc
TEMPLATE """{{- if .System }}{{ .System }}{{ end }}
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1}}
{{- if eq .Role "user" }}<|User|>{{ .Content }}
{{- else if eq .Role "assistant" }}<|Assistant|>{{ .Content }}{{- if not $last }}<|end▁of▁sentence|>{{- end }}
{{- end }}
{{- if and $last (ne .Role "assistant") }}<|Assistant|>{{- end }}
{{- end }}"""
PARAMETER stop <|begin▁of▁sentence|>
PARAMETER stop <|end▁of▁sentence|>
PARAMETER stop <|User|>
PARAMETER stop <|Assistant|>
LICENSE """MIT License

Copyright (c) 2023 DeepSeek

Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:

The above copyright notice and this permission notice shall be included in all
copies or substantial portions of the Software.

THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
SOFTWARE.
"""

  1. 查找模型的gguf文件,使用ollama pull拉取的是sha256文件
    本地运行的权重文件地址,linux:/home/user/.ollama/models/blobs或者windows:C:/Users/C/.ollama/models/blobs找到sha256文件,将比较大的文件复制一份,放到离线服务器上/home/user/.ollama/blobs

在这里插入图片描述
4. 修改modelfile文件,将此路径改为服务器的路径 在这里插入图片描述

3.创建deepseek

在服务器上运行

ollama create deepseek-r1:1.5b -f modelfile

在这里插入图片描述

安装结束

ollama run mydeepseek

![(https://i-blog.csdnimg.cn/direct/96edce49828a43028364fee63a72a095.png)

### Ollama 模型离线部署方法 #### 创建模型命令 为了在内网环境中实现Ollama的大规模模型离线部署,需利用特定指令完成模型创建操作。具体而言,通过`ollama create <your-model-name> -f <./Modelfile>`这条语句来初始化所需部署模型实例[^1]。 #### 准备工作与安装流程概述 针对Ollama离线部署的整体规划分为几个部分:首先是前期准备工作;其次是关于Ollama平台及其功能特性的简单介绍;最后聚焦于具体的离线安装环节,这其中包括资料收集以及实际执行安装并启动服务的过程[^2]。 #### 实际部署步骤详解 对于希望完全脱离互联网连接而独立运行的情况,一种可行方案是在具备网络访问权限的计算机上预先借助Ollama工具下载目标模型文件至本地磁盘,并将其转移至预期的应用服务器位置。随后,在相应的配置文档里指定这些已迁移过来的数据存储路径作为环境变量的一部分加以定义[^3]。 #### Docker容器化解决方案示范 当面对资源受限的工作站时,可考虑采用Docker技术构建隔离化的应用环境来进行Ollama及相关组件的服务搭建。例如,先拉取官方提供的最新版镜像并通过适当端口映射建立对外接口,再利用`docker exec`命令让内部程序获取远程仓库里的预训练权重集。之后把整个项目打包成压缩包形式传输给无外联条件的目标主机解压展开后重复上述过程直至成功激活API监听状态。最终可通过发送HTTP请求测试交互效果验证一切正常运作[^5]。 ```bash # 在联网设备上执行下列脚本片段 docker run --rm -it \ -v ./ollama:/root/.ollama \ -p 8000:11434 \ --name ollama \ ollama/ollama docker exec -it ollama ollama pull qwen:0.5b ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值