之前通过Ollama搭建了本地
Deepseek
大模型对话机制,但知识点仅限于Deepseek
内部的数据,且目前数据截止时间为2024年7月
,如果我们询问一些专业性比较强的内容,则Deepseek
也显得无能为力,这就需要再给这个大脑外接一些文档数据了,通过AnythingLLM
来Embedding
外部文档。
💞更多内容,可关注公众号“ 一名程序媛 ”,我们一起从 0 - 1 学编程💞
1 下载安装AnythingLLM
有两种方式来实现AnythingLLM
环境的搭建,一种是进入官网下载相应操作系统的Desktop
安装包,双击下一步安装即可
还有一种是通过Docker
搭建,这个相对有点复杂,看个人喜好和能力了
如果要下载安装包,直接到官网下载即可
https://anythingllm.com/desktop
如果要使用Docker
,则直接pull
镜像即可(但要注意“墙”的原因,很可能拉个寂寞,原因说了,解决办法就各显神通吧,或翻,或代理,或有靠谱的别人pull
的tar
包拿来用)
docker pull mintplexlabs/anythingllm
2 Docker容器创建
如果是安装包安装,则安装完成即会进入“开始画面”,可跳过此步,我这边是使用的Docker
容器,所以还需要一些前期配置
- 创建外部存储目录
anythingllm
- 创建配置文件
.env
- 建立容器创建脚本
anything_create
cd ~ && mkdir anythingllm
cd anythingllm && touch .env
cd ~/bin && touch anything_create
在脚本文件里输入以下容器创建的命令,根据个人喜好使用相应文本编辑器,如 vim
#!/bin/bash
export STORAGE_LOCATION=$HOME/anythingllm && \
docker run -d -p 3001:3001 --name anythingllm \
--cap-add SYS_ADMIN \
-v ${STORAGE_LOCATION}:/app/server/storage \
-v ${STORAGE_LOCATION}/.env:/app/server/.env \
-e STORAGE_DIR="/app/server/storage" \
mintplexlabs/anythingllm
给脚本添加“可执行”权限,然后创建容器(因为脚本命令直接创建在bin
目录下,默认已添加到环境变量中,可直接运行命令)
chmod +x anything_create
anything_create
打开浏览器,根据Docker
主机IP
进行访问
http://192.168.220.100:3001/
3 初始化配置
- 点击“开始”
- 下拉选择“Ollama本地大模型”,在下方选择已安装的模型如“
deepseek-r1:1.5b
” - 展开“
advanced setttings
”高级设置,视需要修改Ollama
访问URL
,点击向右箭头,下一步 - 设置“登录用户”(如果设置密码,则至少8位),下一步
- 数据处理上保持默认即可,本地大模型
Ollama
,文本RAG
默认,向量数据库默认(此处也无法修改),下一步 - 点击“跳过调查“,下一步
- 创建工作区,如“
ZGStudy
”,下一步 - 聊天对话框中会展示官方介绍信息
点击下方“设置”按钮,在“外观”下可修改“Display Language
”为“Chinese
”
4 开始聊天
点击左侧刚才建立的工作区名称,会在右侧打开聊天界面
左侧的thread
即是线程,也是聊天上下文的意思,跨上下文环境可能你的聊天背景就要重新定义了
5 添加文档
- 点击工作区名称右侧的“上传”图示
- 点击“
Click to upload or drag and drop
”,选择本地文档以上传 - 选中上传的文件列表中的文件后,点击弹出的按钮“
Move to Workspace
”以绑定到工作区 - 点击“
Save and Embed
”以保存和绑定(会花费一些时间解析数据到向量数据库),完成后,点击文档右侧的“图钉”图示Pin
文档到聊天上下文环境中以更有效的让AI
搜索文档来回答问题
提醒一句,如果修改RAG
模型会清空向量数据库,Save
的文档需要重要加载
6 多说一句
至此,你本地知识库即对接完成,回到聊天界面即可尝试使用了,后续的调教还需更进一步的研究
比如,你会发现它回答的问题怎么“傻傻的”?“怎么没有按我文档里的内容来?”“怎么这么卡?”
💞更多内容,可关注公众号“ 一名程序媛 ”,我们一起从 0 - 1 学编程💞