手把手教你在 Windows 上轻松部署本地大语言模型:Ollama 与 Open-WebUI 的完整指南!

手把手教你在 Windows 上轻松部署本地大语言模型:Ollama与Open-WebUI 的完整指南!

img

前言

欢迎来到本教程!本文将详细介绍如何在 Windows 系统 上安装和使用 OllamaOpen-WebUI,这两个强大的工具将帮助您轻松管理和运行大型语言模型。Ollama 简化了模型的下载与部署,而 Open-WebUI 则提供了一个直观的图形用户界面,使用户能够更方便地与模型进行交互。

本教程将涵盖以下内容:

  1. 安装环境与步骤:提供准备和安装 Ollama 及 Docker Desktop 的详细指导。
  2. 验证安装:教您如何确认 Ollama 和 Docker 是否成功安装。
  3. 模型搜索与下载:展示如何使用阿里开源的 通义千问大模型 Qwen 进行操作。
  4. Open-WebUI 的安装与使用:介绍如何部署 Open-WebUI 以及如何在浏览器中与模型交互。

无论您是机器学习的初学者,还是希望在本地部署强大语言模型的开发者,本文将为您提供清晰且实用的指导,帮助您顺利踏上机器学习之旅,并最终在本地成功部署属于自己的大型模型,诸如下图。

图片

安装 Ollama

安装环境
  • 在开始之前,请确保你的计算机已安装显卡驱动和 CUDA 程序,具体的验证步骤将在本文结尾提供。

访问官网:https://ollama.com/

下载 Ollama

点击页面上的“Download”按钮。

图片

在弹出的选项中选择适合 Windows 的安装程序,下载完成后,双击安装文件。

图片

安装过程

安装开始后直接点击 Install,稍等片刻后安装成功。

图片

验证安装

按下快捷键:同时按 Windows 键和 R 键 (Win + R),打开“运行”窗口。

输入命令:在窗口中输入 cmd,然后敲击 Enter

图片

在命令提示符窗口中,输入:

ollama --version

如果显示版本号,说明安装成功。

图片

模型部署

在 Ollama 上,我们可以方便地搜索并下载所需的模型。此次我们选择阿里开源的通义千问大模型 Qwen。具体步骤如下:

搜索模型:访问 ollama.com,在搜索框中输入“Qwen”后,敲击Enter进行查找。

图片

选择版本

  • 在搜索结果中,你会看到 Qwen 的不同版本,如 Qwen 2.5 和 Qwen 2 等,这里我们选择安装 Qwen 2.5 版本。
  • 目前可用的参数大小有:0.5B、1.5B、3B、7B、14B 、32B 和 72B。每个数值代表不同的参数规模。为了适应自己的电脑配置,建议谨慎选择。这里我们选择 7B(70亿参数),该模型的大小不到 5GB,适合第一次使用。

图片

下载模型

打开命令提示符或终端,直接运行以下命令来下载所选模型:

ollama run qwen2.5:7b
  • ollama 是命令行工具的名称,用于管理和运行机器学习模型。
  • run 是 Ollama 命令,用于启动和执行指定的模型。
  • qwen2.5:7b 是模型的名称版本,表示你要下载或运行的特定模型。

下载速度通常由快到慢(请耐心等待),完成后会看到 success 的提示,表示模型已成功安装。

图片

使用模型

一旦安装完成,你就可以在终端中运行下面指令直接使用 Qwen 模型进行提问。

ollama run qwen2.5:7b

注意,Qwen2.5-7B 的回答可能并不是很理想。这并不是重点,因为后续我们可以下载更先进、更准确的模型,从而更深入地体验模型的训练和提升过程。

图片

更改模型保存路径(可选+推荐):

Ollama 中,模型的保存路径可通过环境变量 OLLAMA_MODELS 进行配置和查询。若未显式设置该变量,Ollama 将默认使用系统盘路径,这可能导致系统盘存储空间耗尽。

你可以通过以下方式查看当前 Ollama 模型的保存路径:

PowerShell 终端直接打印当前的 Ollama 配置,检查 OLLAMA_MODELS

echo $env:OLLAMA_MODELS

如果 OLLAMA_MODELS 已设置,会显示路径(如 D:\OllamaModels)。

如果没有设置,输出为空,Ollama 会使用默认路径C:\Users\username\ .ollama

如果你想修改模型的保存路径,可以设置 OLLAMA_MODELS 环境变量。

在 PowerShell 中执行以下命令(方法一):

$env:OLLAMA_MODELS = "D:\NewModelPath"  # NewModelPath为你想要的Ollama模型保存路径

或者通过新建 系统环境变量 设置 OLLAMA_MODELS,这样 Ollama 就会将模型保存到新的路径(方法二):

图片

更改模型保存路径后,需要重启 Ollama 服务才能使更改生效。

如果 Ollama 服务正在运行,你需要先停止它。可以在 PowerShell 中按 Ctrl + C 来终止服务。

重新启动 Ollama 服务,确保新的配置生效:

ollama serve

Ollama 会加载新的模型保存路径,并在该路径下下载和存储模型。

安装 Docker Desktop

Docker 提供了一致的运行环境,适用于不同操作系统,特别适合跨平台的机器学习工具运行。安装 Docker Desktop 将为后续的 Open-WebUI 提供必要的运行环境,使用户能够轻松地在 Docker 容器 中管理和使用各种语言模型。

安装 Docker Desktop

下载 Docker Desktop:访问 Docker 官网:https://www.docker.com/

点击页面上的“Download for Windows - AMD64”按钮,以下载适用于 Windows 系统的 Docker Desktop 安装文件。

图片

安装 Docker Desktop

双击下载的安装文件,开始安装 Docker Desktop。

按照安装向导的指示完成安装。在安装过程中,将提示安装 WSL 2,建议勾选此选项以获得更好的性能。

图片

配置 Docker Desktop

安装完成后,启动 Docker Desktop

图片

首次打开时,将出现 Docker 订阅协议,点击 Accept(接受)以继续。

图片

随后,系统将提示用户登录。您可以选择使用 GitHub 账户或 Google 账户登录,若无上述账户,可选择跳过登录步骤。

图片

接下来,将出现调查问卷,您可以根据个人喜好选择填写,或直接跳过此步骤。

图片

最后,Docker Desktop 将正常启动。

图片

汉化 Docker Desktop(可选)

若想使 Docker Desktop 显示中文界面,按照以下步骤进行汉化:

下载对应版本的中文语言包

访问 GitHub,下载适用于 Docker Desktop 的中文语言包,链接地址为:https://github.com/asxez/DockerDesktop-CN。

图片

将下载的文件解压至 C:\Program Files\Docker 目录下(即 Docker 的安装根目录)。

图片

检查 Docker Desktop 版本:启动 Docker Desktop,版本号将在右下角显示。
图片

备份并替换 app.asar 文件:打开 Docker Desktop 中文语言包,选择与您 Docker 版本相符的 app.asar 文件并复制。

图片

导航至 Docker 的安装目录,路径默认为:

C:\Program Files\Docker\Docker\frontend\resources

在该目录下找到 app.asar 文件,建议先备份原文件,然后将复制的中文语言包中的 app.asar 文件粘贴并替换原有文件。

图片

重新启动 Docker Desktop:完成替换后,请关闭 Docker Desktop,然后重新启动该程序。此时,Docker Desktop 应该以中文界面显示。

图片

安装 Open-WebUI

Open-WebUI 是一个基于 Docker 部署的 Web 用户界面,使用户能够在本地环境中轻松运行和管理语言模型。与直接使用命令行工具相比,Open-WebUI 提供了更直观、便捷的交互体验,尤其适合希望进行图形化操作的用户。

安装 Open-WebUI

获取 Open-WebUI 镜像:打开命令提示符PowerShell,输入以下命令以下载 Open-WebUI 镜像:

docker pull ghcr.io/open-webui/open-webui:main

下载过程可能需要几分钟,请耐心等待。

图片

启动 Open-WebUI 容器

下载完成后,运行以下命令以启动 Open-WebUI:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

该命令中的 -d 参数表示容器在后台运行,-p 3000:8080 用于将容器内的 8080 端口映射到本地计算机的 3000 端口。启动后,您可以在浏览器中访问 http://localhost:3000 以进入 Open-WebUI 界面。

图片

docker run #这是用于创建并运行一个新的容器的命令。
    
-d #让容器在后台运行(“detached” 模式)。
    
-p 3000:8080 #将主机的 3000 端口映射到容器的 8080 端口。这意味着你可以通过访问主机的 3000 端口来访问容器内的服务。
    
--add-host=host.docker.internal:host-gateway  #这条选项允许容器内的应用访问主机(宿主机)上的服务。它会将 host.docker.internal 指向 Docker 宿主机的 IP 地址。
    
-v open-webui:/app/backend/data #创建一个名为 open-webui的数据卷,将其挂载到容器的 /app/backend/data路径。这允许你在容器重启或删除后仍能保留数据。
    
--name open-webui #为容器指定一个名称(open-webui),方便后续管理。
    
--restart always #设置容器的重启策略为“始终”。这意味着如果容器崩溃或宿主机重启,Docker 会自动重新启动该容器。
    
ghcr.io/open-webui/open-webui:main #指定要运行的镜像及其标签(这里是 main)。
输出解释

6fb5192dc3e4912b5fdfe6a183c798351fc76e15a7c60bccc25a3573c39b0136: 这是新创建容器的唯一 ID。你可以用这个 ID 来执行后续的操作,如停止或删除容器。

配置与使用 Open-WebUI

在浏览器中打开 http://localhost:3000后,您将看到 Open-WebUI 的主界面。

首次访问可能需要注册一个账号,注册过程简单易行。

图片

登录以后,左上角可以选择我们安装的Qwen2.5模型,如果我们安装多个模型的话,可以切换不同模型使用。

图片

Open-WebUI 提供直观的模型搜索和下载界面,您可以从中选择诸如 Qwen(通义千问)等模型。

使用 Open-WebUI,您可以更便捷地进行交互,相较于传统终端操作,体验更加流畅与美观。

图片

验证显卡驱动和 CUDA 程序

可以按照以下步验骤证计算机是否已安装显卡驱动和 CUDA 程序:

验证显卡驱动

检查显卡信息:

  • 右键点击桌面,选择“显示设置”。
  • 在“显示”设置中,向下滚动并点击“高级显示设置”。

图片

在这里,你可以看到使用的显卡型号。

图片

验证驱动版本:

Win + X 键,选择“设备管理器”。

在设备管理器中,展开“显示适配器”选项,找到你的显卡。

图片

右键点击显卡,选择“属性”,然后切换到“驱动程序”选项卡,可以查看驱动程序版本。

图片

验证 CUDA 安装

检查 CUDA 是否安装

打开命令提示符(按 Win + R,输入 cmd,然后按 Enter)。输入以下命令并按 Enter

nvcc --version

如果 CUDA 已安装,会显示 CUDA 的版本信息。如果提示“未找到命令”,说明 CUDA 可能未安装或未正确配置。

图片

确认 CUDA 目录

你也可以检查 CUDA 是否在系统环境变量中。打开“控制面板”,选择“系统和安全” > “系统” > “高级系统设置”。

在“系统属性”窗口中,点击“环境变量”按钮,查看“系统变量”中的 Path 变量,确认其中是否包含 CUDA 的安装路径(通常是 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\vX.X\bin)。

来源:https://blog.youkuaiyun.com/Natsuago/article/details/143457235

如何零基础入门 / 学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

全套AGI大模型学习大纲+路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

read-normal-img

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

img

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

<think>好的,我现在需要帮助用户了解如何使用Qwen3大模型搭建本地知识库。根据用户提供的引用内容,之前他们部署了Qwen2.5模型,现在想升级到Qwen3。我需要结合之前的回答和引用中的信息,给出一个清晰的步骤指南。 首先,用户提到了Ollama和Dify的部署,所以可能需要在程中包含这些工具的使用。用户之前部署了Qwen2.5,现在转向Qwen3,我需要确认Qwen3是否支持类似的部署方法,或者是否需要额外的步骤。 接下来,用户提到要结合本地知识库作为Dify的上下文,这意味着需要将知识库集成到Dify中,可能涉及文档加载、向量化存储和检索增强生成(RAG)的应用。这部分需要详细说明如何处理知识库文件,如何配置Dify来使用这些数据。 另外,用户提供的引用中有关于资料领取的部分,但根据系统指令,应避免无关推广,所以需要忽略这部分内容,专注于技术步骤。 还需要考虑用户可能的痛点,比如环境配置、模型下载、知识库格式要求等。需要分步骤解释,确保用户能逐步操作,同时注意技术细节的正确性,比如正确的Ollama命令、Dify的配置参数等。 最后,生成相关问题时要围绕搭建过程中的常见问题、优化方法和应用场景展开,帮助用户进一步探索。</think>### 使用Qwen3大模型搭建本地知识库的详细程 #### 一、环境准备模型部署 1. **私有化部署Qwen3模型** 使用Ollama工具部署Qwen3模型(7B或更高参数版本): ```bash # 拉取Qwen3模型(假设已支持) ollama pull qwen3:7b # 启动模型服务 ollama serve ``` 若官方未直接支持,可手动构建`Modelfile`: ```dockerfile FROM qwen/qwen3:7b PARAMETER temperature 0.7 SYSTEM "你是一个专业的知识库问答助手" ``` 2. **验证模型可用性** 通过CURL测试API接口: ```bash curl http://localhost:11434/api/generate -d '{ "model": "qwen3:7b", "prompt": "量子力学三大基本原理是什么?" }' ``` #### 二、知识库构建处理 1. **文档格式规范** - 支持格式:PDF/TXT/MarkDown/HTML - 推荐预处理:使用Python库清洗文本 ```python from bs4 import BeautifulSoup def clean_html(raw_html): soup = BeautifulSoup(raw_html, "html.parser") return soup.get_text() ``` 2. **向量化存储** 使用LangChain构建向量数据库: ```python from langchain_community.embeddings import HuggingFaceEmbeddings from langchain_community.vectorstores import FAISS embeddings = HuggingFaceEmbeddings(model_name="BAAI/bge-base-zh") documents = [...] # 预处理后的文档列表 vector_db = FAISS.from_documents(documents, embeddings) vector_db.save_local("my_knowledge_base") ``` #### 三、Dify平台集成(社区版) 1. **部署Dify服务** ```bash git clone https://github.com/langgenius/dify cd dify/docker docker-compose up -d ``` 2. **配置知识库连接** 在Dify控制台: - 新建应用 → 选择「知识库问答」 - 上传预处理文档或连接现有向量库 - 设置检索参数: ```yaml retriever: search_type: "similarity" k: 5 score_threshold: 0.7 ``` 3. **RAG流程配置** ```python # 自定义处理链示例 from langchain_core.runnables import RunnablePassthrough retriever = vector_db.as_retriever() qa_chain = ( {"context": retriever, "question": RunnablePassthrough()} | prompt_template | llm | output_parser ) ``` #### 四、效果优化技巧 1. **混合检索策略** 结合关键词搜索向量检索: ```python from langchain.retrievers import BM25Retriever, EnsembleRetriever bm25_retriever = BM25Retriever.from_documents(docs) ensemble_retriever = EnsembleRetriever( retrievers=[bm25_retriever, vector_retriever], weights=[0.4, 0.6] ) ``` 2. **查询扩展** 使用Query2Doc技术增强检索: ```python from transformers import pipeline expander = pipeline("text-generation", model="Qwen/Qwen1.5-7B") expanded_query = expander(f"生成'{query}'相关的三个扩展问题") ``` #### 五、监控维护 1. **日志分析配置** ```bash # 查看Dify请求日志 docker logs -f dify-api ``` 2. **知识库更新机制** ```python # 增量更新脚本示例 def update_knowledge(new_docs): global vector_db vector_db.add_documents(new_docs) vector_db.save_local("my_knowledge_base") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值