【AI大模型】Ollama+OpenWebUI+llama3本地大模型

部署运行你感兴趣的模型镜像

0.引言

(1)目的
本教程主要关于开源AI大模型部署在个人电脑上,能够让用户轻松在本地运行大模型,这里的本地既可以指完全杜绝网络的个人PC,也可以指能够进行网络连接的PC;
(2)部署后的使用预览
这里有两种使用方式,首先是cmd终端,其次是带有WebUI界面的;
在这里插入图片描述

cmd终端使用
在这里插入图片描述
在这里插入图片描述

1.部署安装

1.1部署工具

  • 大模型管理工具:ollama;
  • 大模型权重:ollama(在线下载),huggingFace权重(主要GGUF格式)
  • Web-UI(利用docker以及open-web-UI库进行web端使用大模型)

1.2 概念介绍

(1)什么是ollama以及ollama安装
重点是部署和管理,在这里插入图片描述
本教程环境为win11系统,ollama在win系统就跟安装软件一样,下载ollama.exe文件进行安装即可 win安装地址,这里需要说明的是ollama.exe默认只能安装在C盘,但调用的大模型权重文件位置可以放在其它盘(详见后续教程)。
在这里插入图片描述

1.3 ollama安装后的基本使用

安装完成后可以在cmd终端查看使用(类似docker使用一样)
在这里插入图片描述
指令说明

ollama -h		# 查看ollama帮助使用
ollama list    #查看已有大模型
ollama pull+大模型模型    #下载大模型
ollama run +大模型        # 运行大模型
ollama create +大模型配置文件  #ollama配置其它途径下载的权重文件,如huggingFace
ollama rm yi:8b        #卸载yi:8b大模型
ollama cp yi:   
#ctrl+d退出

1.4 大模型权重下载

常用的模型如llama3,通义千问(qwen)等部分模型权重可以通过两种方式下载:

1.4.1 ollama在线下载

在ollama网站中models,利用cmd终端命令进行下载:ollama pull llama3:8b
在这里插入图片描述
在这里插入图片描述
下载完成后cmd终端查询已有大模型命令:ollama list
运行使用:ollama run llama3:8b

1.4.2 huggingFace下载大模型权重及如何使用ollama进行调用

(1)首先是模型权重下载
如何从hugging Face官网下载大模型权重,参考本链接教程:huggingFace模型权重下载教程
需要注意的是:推荐下载大模型格式为gguf或者GGUF,因此这里在搜索大模型时,最好加上gguf,如下图
在这里插入图片描述
(2)huggingFace下载的大模型如何配置使用
下载到本地的模型文件不能直接导入到Ollama,需要编写一个配置文件,随便起个名字,如config.txt,配置文件内容如下

# 主要是FROM需要改成自己从hugging face上面下载的路径
FROM "/Users/liaoxuefeng/llm/llama3-8b-cn-q6/Llama3-8B-Chinese-Chat.q6_k.GGUF"

TEMPLATE """{{- if .System }}
<|im_start|>system {{ .System }}<|im_end|>
{{- end }}
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""

SYSTEM """"""

PARAMETER stop <|im_start|>
PARAMETER stop <|im_end|>

最后cmd调用命令:
ollama create llama3-cn -f ./config.txt #即可将下载的模型导入ollama中

2.带有UI界面的使用

这里主要安装不管是大模型还是stableDiffusion文生图等常用的网页交互库:open-webUI
,安装webUI需要先安装docker ,然后利用docker安装webUI并运行。
(1)具体安装教程
参考链接教程的第3部分docker以及webUI安装
部署后使用:在docker 容器点击进入,见下图
在这里插入图片描述
(2)注意!!!
此外关于链接教程的3.4 离线部署部分重点!!!!

3.参考

(1)ollama的默认路径地址
在这里插入图片描述
(2)未完待续

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

<think>好的,我现在需要帮助用户解决在Windows上使用Ollama、Docker和OpenWebUI进行本地部署并搭建本地知识库的问题。首先,我得回忆一下用户提供的引用内容,确保引用正确。 用户提到的引用[1]和[2]主要涉及Ollama的安装和Docker运行OpenWebUI的步骤,以及可能遇到的问题。我需要先整理出清晰的步骤,按照安装顺序来,确保用户能逐步操作。 首先,安装Ollama。根据引用[2],Ollama允许在本地运行大型语言模型,支持热切换模型,安装步骤应该包括下载Windows版本。用户需要访问官网下载安装包,然后启动服务。这部分没问题,但可能需要提醒用户注意系统要求。 接下来是安装Docker Desktop。用户需要启用WSL2,因为Docker在Windows上依赖这个。安装完成后,配置资源,比如内存和CPU,特别是运行大型模型可能需要更多资源。这里需要提醒用户根据模型大小调整配置,避免内存不足。 然后是使用Docker部署OpenWebUI。引用[1]中的命令需要检查是否正确,特别是端口映射和卷挂载。命令中的--add-host参数是为了解决容器内访问宿主机服务的问题,这在Windows上可能需要特别注意网络设置。挂载卷到open-webui可以持久化数据,确保配置和模型不会丢失。 部署完成后,访问OpenWebUI的界面,通常是通过localhost:3000。接下来需要配置Ollama集成,确保OpenWebUI能连接到本地Ollama服务。可能需要检查Ollama的默认端口11434是否开放,避免防火墙拦截。 搭建本地知识库部分,用户可能需要使用RAG技术。这涉及到加载文档、分块、向量化和存储到向量数据库。需要推荐合适的库,比如LangChain处理文档,HuggingFace模型生成向量,ChromaDB作为本地向量库。同时,要提供示例代码,帮助用户理解如何实现。 在注意事项中,要强调资源分配,特别是模型大小与内存的关系,以及网络配置的正确性。可能遇到的问题包括Docker容器无法连接Ollama,这时候需要检查主机名是否正确,或者尝试使用host网络模式。 最后,生成相关问题需要考虑用户可能的后续疑问,比如性能优化、模型选择、网络问题排查和知识库扩展方法。这些问题应该覆盖用户可能遇到的下一步挑战,确保他们能继续自主解决问题。 整个过程中,需要确保使用正确的中文术语,步骤清晰,代码示例准确,并且引用标记正确。同时,避免使用Markdown格式,但按照用户的要求,回答中的代码块需要用三个反引号包裹,并标明语言。检查所有LaTeX格式是否正确,虽然问题中可能数学公式不多,但如果有的话要确保使用$...$或$$...$$。</think>以下是Windows系统下使用Ollama、Docker和OpenWebUI进行本地部署的完整教程,包含本地知识库搭建方法: ### 一、环境准备 1. **安装Ollama** 访问[Ollama官网](https://ollama.ai/)下载Windows版安装包,完成安装后执行: ```powershell ollama serve # 启动服务,默认端口11434[^2] ``` 2. **安装Docker Desktop** - 启用Windows子系统WSL2 - 下载Docker Desktop安装包并完成配置 - 建议分配至少8GB内存(大型模型需16GB+3. **部署OpenWebUI** 使用管理员权限运行: ```bash docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main[^1] ``` ### 二、配置集成 1. 访问`http://localhost:3000`进入OpenWebUI 2. 在设置中添加Ollama端点: ``` http://host.docker.internal:11434 ``` 3. 下载模型(以llama3为例): ```bash ollama pull llama3 ``` ### 三、本地知识库搭建 使用RAG(检索增强生成)技术实现: ```python from langchain.document_loaders import DirectoryLoader from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain.embeddings import HuggingFaceEmbeddings from langchain.vectorstores import Chroma # 加载文档 loader = DirectoryLoader(&#39;knowledge/&#39;) documents = loader.load() # 文档分块 text_splitter = RecursiveCharacterTextSplitter(chunk_size=500) docs = text_splitter.split_documents(documents) # 向量化存储 embeddings = HuggingFaceEmbeddings() vector_db = Chroma.from_documents(docs, embeddings, persist_directory="db/") ``` ### 四、注意事项 1. 建议模型与内存对应关系: - 7B模型:8GB内存 - 13B模型:16GB内存 - 70B模型:64GB+内存 2. 若出现容器无法连接Ollama,尝试: ```bash docker network create ollama-net docker run ... --network=ollama-net ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值