本地环境的模型搭建和微调是一个复杂的过程,涉及多个组件的安装和配置。本文将介绍如何使用 Ollama、OpenWebUI 和 LlamaFactory 来搭建一个本地 AI 应用栈,包括使用 Ollama 进行模型管理和推理,结合 OpenWebUI 提供友好的网页交互界面,并利用 LlamaFactory 进行模型微调或管理。将详细介绍各组件的安装步骤以及如何初步整合们进行知识库构建。
第一步:Ollama 安装
Ollama 是一个轻量级、跨平台的工具,旨在简化大型语言模型在本地环境中的运行。提供了一个简单的命令行接口来拉取、运行和管理各种开源 LLM。
1.访问官网: 前往 https://ollama.com/[1] 下载适用于操作系统的安装包。
•Windows/macOS: 通常会提供 .exe 或 .dmg 文件,下载后按照常规软件安装流程进行即可。•Linux: 推荐使用官方提供的便捷脚本进行安装:
curl -fsSL https://ollama.com/install.sh | sh
2.启动服务: 安装完成后,Ollama 服务通常会自动启动。可以打开终端(Terminal)或命令提示符(Command Prompt),输入 ollama --version 来验证安装是否成功。如果显示了版本号,则表示 Ollama 已正确安装并可以运行。
ollama --version
# 示例输出: ollama version 0.12.9
第二步:模型获取与运行
安装好 Ollama 后,下一步就是获取所需的模型。Ollama 支持大量的开源模型,可以通过简单的命令进行拉取和运行。以下是将要用到的几个模型及其简要介绍:
•qwen3-embedding:4b: 这是阿里巴巴通义千问系列的一个嵌入(Embedding)模型,参数量为 4B。嵌入模型用于将文本转换成高维向量(即嵌入),这些向量能够捕捉文本的语义信息,在构建知识库、实现语义搜索等场景中至关重要。•embedding-gemma: Google 开发的 Gemma 系列中的嵌入模型。同样用于生成文本嵌入,可作为 qwen3-embedding 的替代选项,适合外语类资料为主的场景,尤其是一些可能相对小众的语种,谷歌的数据可能会有一定优势。•qwen3-vl:8b: 通义千问系列的视觉语言模型(Vision-Language Model),参数量为 8B。不仅能处理文本,还能理解和分析图像内容,适合需要图文混合输入的任务。•qwen3:8b: 通义千问系列的核心对话语言模型,参数量为 8B。这是进行常规文本生成、问答、对话等任务的主要模型。
拉取模型:
使用 ollama pull 命令来下载模型文件到本地。
# 拉取嵌入模型
ollama pull qwen3-embedding:4b
ollama pull embedding-gemma
# 拉取对话和视觉语言模型
ollama pull qwen3-vl:8b
ollama pull qwen3:8b
运行模型:
使用 ollama run 命令可以在命令行中直接与模型进行交互。
# 运行对话模型进行测试
ollama run qwen3:8b --verbose "你都能做什么?"
# 运行视觉语言模型
ollama run qwen3-vl:8b --verbose "你看看这张图,它是什么?" "./image.jpg" # 注意:需要提供图像文件路径
(退出交互式会话通常按 Ctrl+C)
对于嵌入模型 (qwen3-embedding, embedding-gemma),们主要用于后台提供嵌入服务,而不是直接进行对话。后续在配置 OpenWebUI 时会指定使用哪个嵌入模型。
第三步:OpenWebUI 的 Pip 安装
Open WebUI 是一个功能强大的 Web 界面,可以连接到 Ollama 等后端服务,为用户提供直观易用的图形化界面来与 LLM 交互,并支持构建和查询知识库等功能。
1.准备 Python 环境: 确保的系统已安装 Python 3.10 或更高版本。可以通过 python --version 或 python3 --version 来检查。2.创建虚拟环境 (推荐): 为了避免依赖冲突,建议为 OpenWebUI 创建一个独立的 Python 虚拟环境。
python -m venv openwebui_env
# 激活环境 (Linux/macOS)
source openwebui_env/bin/activate
# 激活环境 (Windows)
openwebui_env\Scripts\activate
3.使用 Pip 安装: 在激活的虚拟环境中,使用 pip 安装 OpenWebUI。
pip install open-webui
4.启动 OpenWebUI: 安装完成后,通过以下命令启动 Web 服务。首次运行会进行一些初始化设置。
open-webui serve
5.访问界面: 默认情况下,OpenWebUI 会在 http://localhost:8080 启动。请在浏览器中打开此地址访问。首次访问时,需要创建管理员账户。
配置 Ollama 后端:
登录 OpenWebUI 后,进入管理面板 (Admin Panel),找到 “Settings” -> “Connections” 或类似选项,配置 Ollama API 的地址(通常是 http://localhost:11434)。然后,在模型管理部分,可以选择之前拉取的 qwen3:8b 作为主要聊天模型,并选择 qwen3-embedding:4b 或 embedding-gemma 作为嵌入模型用于知识库功能。
第四步:LlamaFactory 的 Pip 安装
LlamaFactory 是一个旨在简化 LLM 微调、评估和部署的框架。它提供了丰富的训练算法和便捷的脚本,使得即使是初学者也能相对容易地对模型进行定制化训练。LlamaFactory 可以直接通过 pip 进行安装。
1.准备 Python 环境: LlamaFactory 对 Python 版本有要求(通常是 >=3.8),确保满足条件。强烈建议为此创建一个新的虚拟环境。
python -m venv llamafactory_env
# 激活环境 (Linux/macOS)
source llamafactory_env/bin/activate
# 激活环境 (Windows)
llamafactory_env\Scripts\activate
2.使用 Pip 安装: 在激活的虚拟环境中,直接使用 pip 安装 LlamaFactory。
pip install llamafactory
**注意:LlamaFactory 的版本可能随时更新,建议查看 LlamaFactory 的官方文档[2] 或 pip show llamafactory 获取最新信息。**3.验证安装: 可以尝试查看可用的命令或帮助文档来确认安装是否成功。
# 查看是否安装成功及基本信息
pip show llamafactory
# 或者尝试运行其 CLI 工具(如果有的话)
与 Ollama/OpenWebUI 的关系:
LlamaFactory 主要用于模型的训练和微调阶段。一旦使用 LlamaFactory 训练出了新的模型权重,可以将其转换为兼容 Ollama 的格式(这一步可能需要额外的脚本或工具),然后通过 ollama create 命令打包成新的 Ollama 模型。之后,这个新模型就可以像其他 Ollama 模型一样被 OpenWebUI 调用和使用了。这一步自己可以探索,反正就是说 LlamaFactory 是整个工作流中负责“创造”或“定制”模型的部分,而 Ollama 和 OpenWebUI 则负责模型的“运行”和“展示”。
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:

2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:

三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】

四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

被折叠的 条评论
为什么被折叠?



