Docker基于Ollama本地部署大语言模型

一、Ollama介绍

Ollama 是一个开源的大型语言模型(LLM)平台,旨在简化大型语言模型在本地环境中的运行、管理和交互。通过Ollama,用户可以轻松加载和使用各种预训练的语言模型,执行诸如文本生成、翻译、代码编写、问答等多种自然语言处理任务。本文将详细介绍如何使用Ollama和Docker在本地部署大型语言模型。

二、Ollama安装

2.1、拉取镜像

我们将使用Docker容器来安装Ollama。首先,从华为云的镜像仓库拉取Ollama镜像:

docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/ollama/ollama:rocm

在这里插入图片描述

2.2、运行容器

接下来,运行我们刚刚拉取的镜像,并将容器的11434端口映射到主机的11434端口。为了简化操作,这里不进行磁盘卷挂载。

docker run -d -p 11434:11434 --name ollama swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/ollama/ollama

在这里插入图片描述

运行成功后,可以通过访问localhost:11434来确认Ollama是否成功运行。

在这里插入图片描述

三、模型部署

我们可以使用Ollama指令直接下载并运行大型语言模型。这里,我们将演示如何使用GGUF文件加载阿里开源的Qwen2模型。

首先,从以下地址下载Qwen2模型:

### 卸载本地部署大语言模型 卸载本地部署大语言模型通常取决于最初使用的安装方法以及所依赖的具体工具和环境配置。以下是通用的方法来安全有效地移除这些组件: #### 停止服务 确保停止任何正在运行的服务或进程,这可以防止数据损坏并允许干净地删除文件。对于大多数情况而言,可以通过命令行执行此操作。 ```bash sudo systemctl stop model_service_name # 如果使用systemd管理的服务 ``` #### 移除容器化环境 (如果适用) 当采用Docker或其他容器解决方案时,先识别出关联的容器实例及其镜像名称,并按照如下方式清理它们: ```bash docker rm -f container_id_or_name # 删除指定ID/名字的活跃容器 docker rmi image_tag # 强制移除不再需要的镜像 ``` #### 清理虚拟环境 如果是通过Python创建了一个独立的工作区,则应该解除该隔离空间以释放资源。 ```bash deactivate # 关闭当前激活的状态 rm -rf venv_folder # 彻底清除venv目录下的所有内容 pip uninstall package_names # 或者单独撤销某些特定库包 ``` #### 数据备份与残留文件处理 考虑到可能存在的有价值训练成果或者其他重要资料,在实际动作前做好充分准备总是明智之举;之后再着手彻底消除剩余痕迹。 - 复制必要的日志记录、参数设定等至外部存储介质。 - 使用`find`指令定位潜在散落在各处的小型碎片文档,随后统一处置。 ```bash tar czvf backup.tar.gz /path/to/data # 打包压缩目标路径下的一切东西 find ~/projects/lm_project -type f ! -name "*.txt" -exec rm {} \; # 查找非文本类型的个体予以销毁 ``` #### 注销账户信息(针对云平台集成情形) 假如曾经注册过API密钥或者第三方认证机制的话,务必记得前往对应网站上注销相关权限以免造成安全隐患。 以上步骤能够帮助完成一次较为完整的卸载过程[^1]。值得注意的是,具体细节可能会因为不同框架和技术栈而有所差异,因此建议参照官方文档获取最权威指导[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值