ollama docker离线安装本地大模型

1、下载想要的模型:魔塔社区
2、我这边以qwq-32B为例,在ollama官网中,一一对应,注意,这边要下载gguf文件
在这里插入图片描述在这里插入图片描述
3、下载完成,上传至docker部署的ollama目录,我这边放在了/home下,home目录下新建一个名为Modelfile的文件,参考ollama中的params和template文件
在这里插入图片描述

FROM ./Qwq-33B-F16.gguf.gguf
# 直接复制 ollama 上的 Template 到如下三个双引号中间
TEMPLATE """
{{- if or .System .Tools }}<|im_start|>system
{{- if .System }}
{{ .System }}
{{- end }}
{{- if .Tools }}

# Tools

You may call one or more functions to assist with the user query.

You are provided with function signatures within <tools></tools> XML tags:
<tools>
{{- range .Tools }}
{"type": "function", "function": {{ .Function }}}
{{- end }}
</tools>

For each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:
<tool_call>
{"name": <function-name>, "arguments": <args-json-object>}
</tool_call>
{{- end }}<|im_end|>
{{ end }}
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1 -}}
{{- if eq .Role "user" }}<|im_start|>user
{{ .Content }}<|im_end|>
{{ else if eq .Role "assistant" }}<|im_start|>assistant
{{ if .Content }}{{ .Content }}
{{- else if .ToolCalls }}<tool_call>
{{ range .ToolCalls }}{"name": "{{ .Function.Name }}", "arguments": {{ .Function.Arguments }}}
{{ end }}</tool_call>
{{- end }}{{ if not $last }}<|im_end|>
{{ end }}
{{- else if eq .Role "tool" }}<|im_start|>user
<tool_response>
{{ .Content }}
</tool_response><|im_end|>
{{ end }}
{{- if and (ne .Role "assistant") $last }}<|im_start|>assistant
{{ end }}
{{- end }}
"""

# 这一步参考 ollama 上的 parameters, 但是 ollama 上的Qwq-33B-F16 是没有参数的, 按照下面的格式添加即可
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"

4、进入终端,创建大模型

ollama create 《your model name》 -f Modelfile

5、查看是否安装成功

ollama list 
ollama run 《your model name》

6、移除大模型

ollama rm 《your model name》

7、至此安装完成

### 安装和配置Ollama以运行机器学习模型 #### 准备环境 为了在Linux环境中离线安装和配置Ollama,首先要确保目标计算机已经具备必要的基础软件包。这通常意味着要有一个较为完整的开发工具链以及Python解释器的存在。 对于那些希望完全断网操作的情况,则需提前在一个联网设备上准备好所有必需文件,并将其转移至目标主机。考虑到Ollama本身及其依赖项可能相当庞大,建议预先规划好存储空间[^2]。 #### 下载所需资源 由于计划是在无网络连接的状态下完成整个过程,因此必须事先获取到最新版本的Ollama二进制文件以及其他任何官方推荐或强制性的附加组件。这些可以从官方网站或其他可信源处下载下来,并拷贝给待部署的目标机。 另外值得注意的是,如果打算使用特定类型的硬件加速(比如NVIDIA GPU),还需要额外准备相应的驱动程序和支持库,像CUDA Toolkit这样的套件同样不可或缺[^1]。 #### 配置Docker容器 一旦所有的静态资产都已就绪,在目标平台上设置Docker服务将是下一步骤的关键所在。即使处于脱机状态也能够利用之前保存好的镜像来创建新的实例;只需保证所选的基础映像是针对当前系统的适当选择即可。 通过命令行界面可以轻松实现这一点——启动守护进程之后加载先前导出过的tarball格式压缩包形式存在的自定义化定制版docker image: ```bash sudo docker load -i /path/to/your/image.tar ``` 接着按照常规流程命名标签以便后续调用方便快捷[^3]: ```bash sudo docker tag <image-id> ollama:latest ``` #### 启动与验证 最后一步就是实际执行启动动作了。这里假设读者已经有了一个可用的工作目录用于放置数据集及其他输入材料。此时可以通过下面这条指令开启交互式的shell会话从而进一步探索内部结构或是直接提交作业任务给后台处理引擎去跑批训练脚本之类的活动: ```bash sudo docker run --gpus all -it -v $(pwd):/workspace ollama:latest bash ``` 以上就是在Linux系统内实施离线模式下的Ollama平台搭建方案概述。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值