【ollama 在linux 上离线部署 本地大模型】

本文继续来讲如何在linux上部署离线本地智能大模型,前篇如下:window上部署离线大模型

  1. 首先还是安装ollama linux版本,如果完全离线的话,可以从github上下载一个linux 版本的压缩包传上去
    git hub上搜索ollama 找到右下角
    在这里插入图片描述
    找到linux 版本进行下载
    在这里插入图片描述
    通常情况下的服务器都是amd版本,手机以及一些嵌入式的系统才是arm版本,很多命令都可以看,如下 uname -a
uname -a 

如果输出看到X86_64则是amd

下载完成直接用tar -zxvf 压缩包名字 解压缩,解压缩完毕后找到bin目录下面的ollama,这是个可执行文件,运行ollama即可启动它。
为了后续使用方便,可以把ollama 加载到PATH里面:

vi ~/.bashrc
打开后编辑export PATH=$PATH:/path_to_ollama_bin
然后生效
source ~/.bashrc
  1. 模型下载:
    有几个大的社区,Hugging face或者国内的魔塔等,都有官网。
    比如下面的魔塔,找到模型库,搜一下感兴趣的模型,找到模型文件下载。
    在这里插入图片描述

  2. ollama可以导入两种格式的自定义模型:GGUF、Safetensors

如果要导入的模型保存为二进制 GGUF 文件,则可以通过 Modelfile(自己创建的一个文件) 直接将导入到 Ollama,文件内容如下:

FROM /path/to/file.gguf

如果要导入的模型保存为 Safetensors 文件且采用以下架构之一:LlamaForCausalLM、MistralForCausalLM、GemmaForCausalLM,则也可以通过Modelfile直接将其导入到Ollama中,文件内容如下,跟上面其实一样:

FROM /path/to/safetensors/directory

而上文中我们下载的 Qwen2 采用 Qwen2ForCausalLM 的架构,因此只能使用 GGUF 格式的才能直接导入

具体的做法,举个例子:
vim 新建文件 Modelfile,其中的 qwen2-7b-instruct-q4_0.gguf 指明了采用 4bit 量化的版本:

vim Modelfile

FROM /path/to/ollama/models/qwen2-7b-instruct-q4_0.gguf
然后保存这个文件

然后从Modelfile读取模型,创建名为qwen2的模型

ollama create qwen2-instruct -f ./Modelfile 

命令行出现如下,表示成功

// 命令行提示以下信息说明模型创建成功
transferring model data 
using existing layer sha256:c188f9260d419ff6b38c4630f19ffd260caed3559506206ba344aceb9c90f90c 
using autodetected template chatml 
creating new layer sha256:50ba761223141488f01a893a1d79e3ebbb54b18debf629b3ff9b50a7816ba6d1 
writing manifest 
success

### 实现大模型Linux系统的离线部署 #### 准备阶段 为了实现在Linux环境中大模型离线部署,需先在一个联网设备(如Mac)上完成Ollama及其所需模型文件的下载工作。这一步骤至关重要,因为后续会把该设备上的`.ollama`目录作为资源库转移到目标Linux机器中[^1]。 #### 下载与配置 在具备网络连接的工作站上利用官方提供的命令来获取适用于Linux平台架构的Ollama二进制安装包。对于AMD64架构而言,可以通过如下指令取得相应版本: ```bash curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz ``` 此过程确保了即使是在完全隔离于互联网之外的目标主机也能拥有完整的执行环境和支持材料[^3]。 #### 数据传输 一旦完成了上述准备工作,则应将位于源计算机中的`~/.ollama/`整个目录结构复制至目的端——即Linux服务器对应的路径下(例如:`/usr/share/ollama/.ollama/`),从而实现软件组件连同预训练好的大型语言模型一起迁移的目的。 #### 安装流程 当所有必要的文件都被正确放置到位之后,在无网状态下即可按照常规方法继续推进OLLAMA框架以及特定LLM实例的本地化设置活动。具体操作可能涉及解压已下载的TGZ压缩包、调整权限位以及其他初始化步骤以适应具体的硬件条件和操作系统特性[^2]。 #### 验证部署成果 最后但同样重要的是验证新搭建起来的服务能否正常运作。通过发起测试请求或加载示例数据集来进行功能性和性能方面的评估,确认一切运转良好后再投入实际应用当中去。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值