1. Ollama 简介 https://ollama.com
Ollama 是一个本地运行的大语言模型(LLM)工具平台,允许用户在本地设备上运行和管理大模型,而无需依赖云服务。它支持多种开源模型,并提供了用户友好的接口,非常适合开发者和企业使用。
安装 Ollama
首先,从 Ollama 官网 下载安装包,并按照提示完成安装。
启动Ollama
Windows下搜索ollama,然后点击启动
Ollama 命令介绍
Ollama 提供了几个简单易用的命令,基本功能如下:
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve 启动 Ollama 服务
create 从 Modelfile 创建一个模型
show 查看模型详细信息
run 运行一个模型
stop 停止正在运行的模型
pull 从注册表拉取一个模型
push 将一个模型推送到注册表
list 列出所有可用的模型
ps 列出当前正在运行的模型
cp 复制一个模型
rm 删除一个模型
help 获取关于任何命令的帮助信息
Flags:
-h, --help helpfor ollama
-v, --version Show version information
拉取模型并运行
o
llama pull 具体的模型,这里以deepseek为例
1. 选择模型
2. 搜索你想要的模型:比如 deepseek,qwen
3. 选择你的模型
1. 选择模型大小
2. 复制下载指令,替换为下面,并在终端中执行
ollama pull deepseek-r1:14b
运行模型并对话,–verbose参数可以显示token信息
ollama run deepseek-r1:14b --verbose
信息如下:
资源占用情况:
退出对话
/bye
运行ollama远程服务
ENV OLLAMA_HOST=0.0.0.0:11434 ollama serve
2 RAGFlowj简介 https://ragflow.io
RAGFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。它主要适用于需要动态生成内容且依赖外部知识库的场景,例如智能客服、文档生成、数据分析等。
RAGFlow的安装和部署
📝前置条件
-
CPU ≥ 4 cores (x86);
-
RAM ≥ 16 GB;
-
Disk ≥ 50 GB;
-
Docker ≥ 24.0.0 & Docker Compose ≥ v2.26.1.
如果你并没有在本机安装 Docker(Windows、Mac,或者 Linux), 可以参考文档 Install Docker Engine 自行安装。
🚀 启动服务器
-
确保
vm.max_map_count
不小于 262144:如需确认
vm.max_map_count
的大小:$ sysctl vm.max_map_count
如果
vm.max_map_count
的值小于 262144,可以进行重置:# 这里我们设为 262144: $ sudo sysctl -w vm.max_map_count=262144
你的改动会在下次系统重启时被重置。如果希望做永久改动,还需要在 /etc/sysctl.conf 文件里把
vm.max_map_count
的值再相应更新一遍:vm.max_map_count=262144
-
克隆仓库:
$ git clone https://github.com/infiniflow/ragflow.git
-
进入 docker 文件夹,利用提前编译好的 Docker 镜像启动服务器:
请在运行
docker compose
启动服务之前先更新 docker/.env 文件内的RAGFLOW_IMAGE
变量。比如,你可以通过设置RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
来下载 RAGFlow 镜像的v0.16.0
完整发行版。镜像比较大,需要留足磁盘空间,另外docker下载需要自备科学上网方式,否则有些镜像拉取不下来
$ cd ragflow
$ docker compose -f docker/docker-compose-CN.yml up -d
服务器启动成功后再次确认服务器状态:
$ docker logs -f ragflow-server
出现以下界面提示说明服务器启动成功:
____ ___ ______ ______ __
/ __ \ / | / ____// ____// /____ _ __
/ /_/ // /| | / / __ / /_ / // __ \| | /| / /
/ _, _// ___ |/ /_/ // __/ / // /_/ /| |/ |/ /
/_/ |_|/_/ |_|\____//_/ /_/ \____/ |__/|__/
* Running on all addresses (0.0.0.0)
* Running on http://127.0.0.1:9380
* Running on http://x.x.x.x:9380
INFO:werkzeug:Press CTRL+C to quit
如果您跳过这一步系统确认步骤就登录 RAGFlow,你的浏览器有可能会提示
network anormal
或网络异常
,因为 RAGFlow 可能并未完全启动成功。
-
在你的浏览器中输入你的服务器对应的 IP 地址并登录 RAGFlow。
上面这个例子中,您只需输入 http://IP_OF_YOUR_MACHINE 即可:未改动过配置则无需输入端口(默认的 HTTP 服务端口 80)。
注册登录
在上图的界面中注册,然后登录就来到下面这个页面了
配置 Ollama 连接大模型
-
如下图我们先配置模型,点击右上角头像,再点击模型提供商
-
接着我们在 RagFlow 中配置模型,注意由于 RagFlow 是在 docker 中安装的,所以请求本地部署的 Ollama 地址要用 :host.docker.internal:11434,如果docker在局域网其他服务器上,则直接填写局域网http://局域网ip:11434
1. 选择模型提供商
2. 选择ollama
通过命令获取ollama模型列表
ollama list
最终信息填写如下:
创建知识库
接下来我们就可以创建知识库了
1. 选择知识库
2. 创建知识库
输入知识库名字
配置知识库属性
1 选择文档语言
2 如果下载是全量的RAGFlow镜像,会带有嵌入模型,可以按图中选择;另外也可以添加自定的嵌入模型,方法同前面的模型提供商设置
其他的选项,根据你的情况自行设置就好,很简单
添加私有文档
1. 选择数据集
2. 点击新建文件
3. 上传本地文档
解析文档
看下下面状态,说明文档解析完成
开启聊天
接着就到了展示成果的时候了,我们可以根据自己的知识库与模型进行自然语言交互了。
1. 选择聊天
2. 创建聊天助理
3. 填写助理名字:比如 张三
4. 选择刚才创建的知识库
配置聊天模型,如下:
首先注意,在聊天配置中要把 token 设置大一些,不然回复的内容会很少!我这里把它拉到最大值了。
新建一个对话
数据验证
上面上传的文档是PDD的财务报表,截图中可以看到聊天内容召回了文档中的内容。
Agent功能
RAGFlow也支持agent功能,后面再进行探索
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。