deepseek:培养属于自己的AI大脑
前言
- deepseek-r1模型,服务端部署deepseek之后,我们已经可以正常使用它的能力与之对话了,现在我希望可以喂养它,让它学习我的本地资料,打造为我的私人助手。
centOS 云服务操作
连接到云服务dos窗口
ssh root@xxxx
检查并安装docker环境
- 一般都已经自带docker环境,可以通过 docker -v 指令验证
- 如未安装自行查阅相关资料安装部署
部署AnythingLLM镜像
使用官方的doker镜像
如果希望使用自己的镜像文件,请直接看生成自己的docker镜像
-
拉取镜像: docker pull mintplexlabs/anythingllm
- 遇到问题
-
配置镜像加速器地址:参考Docker Hub 镜像加速
sudo tee /etc/docker/daemon.json <<EOF
{
“registry-mirrors”: [
“https://docker.1ms.run”,
“https://hub.rat.dev”,
“https://docker.1panel.live”
]
}
EOF- 如果docker文件夹不存在,要先创建sudo mkdir -p /etc/docker
- 注意:这里复制过去,可能会出现中文 “ 需要进入/etc/docker/daemon.json,手动修改引号
sudo systemctl daemon-reload
sudo systemctl restart docker
- 遇到问题: Job for docker.service failed because the control process exited with error code. See “systemctl status docker.service” and “journalctl -xe” for details.
-
检查/etc/docker/daemon.json 语法格式
-
- 遇到问题
-
查看镜像:docker images
生成自己的docker镜像
入手建议使用官方的doker镜像
- 克隆获取AnythingLLM仓库:git clone https://github.com/Mintplex-Labs/anything-llm.git
- 进入项目根目录:cd anything-llm
- 运行并生成.env文件配置环境变量:yarn setup
- 没有yarn环境
添加 yum 源配置: curl -sL https://dl.yarnpkg.com/rpm/yarn.repo | sudo tee /etc/yum.repos.d/yarn.repo
使用 yum 安装 : sudo yum -y install yarn
查看安装的 Yarn 版本:yarn -v - 提示node版本过低
全局安装n(n是一种node包管理工具): yarn global add n
升级至最新版本: n latest
node -v 查看当前版本
注意如果遇到类似问题,要记得看提示:重新启动dos即可
- 没有yarn环境
- 再次尝试:yarn setup (记得先进anything-llm的根目录)
遇到错误
修改镜像源:yarn config set sharp_binary_host “https://npmmirror.com/mirrors/sharp”
此处参考:https://blog.youkuaiyun.com/weixin_53737663/article/details/128958712 - 再次尝试:yarn setup (记得先进anything-llm的根目录)
持久化存储AnythingLLM的内容
docker volume create anythingllm_data
启动AnythingLLM并配置mintplexlabs/anythingllm镜像中的大语言模型
首先保证你的服务器有docker-compose环境
docker-compose -v 来判断是否已经有了
创建一个文件夹:anythingllm
进入这个文件夹内
创建docker-compose.yml
内容如下:
version: ‘3.8’
services:
anythingllm:
image: mintplexlabs/anythingllm
container_name: anythingllm
ports:
- “3001:3001”
cap_add:
- SYS_ADMIN
environment:
# Adjust for your environment
- STORAGE_DIR=/app/server/storage
- JWT_SECRET=“make this a large list of random numbers and letters 20+”
- LLM_PROVIDER=ollama
- OLLAMA_BASE_PATH=http://<ollama所在ip地址>:11435
- OLLAMA_MODEL_PREF=deepseek-r1:1.5b
- OLLAMA_MODEL_TOKEN_LIMIT=4096
- EMBEDDING_ENGINE=ollama
- EMBEDDING_BASE_PATH=http://<ollama所在ip地址>:11435
- EMBEDDING_MODEL_PREF=deepseek-r1:1.5b
- EMBEDDING_MODEL_MAX_CHUNK_LENGTH=8192
- VECTOR_DB=lancedb
- WHISPER_PROVIDER=local
- TTS_PROVIDER=native
- PASSWORDMINCHAR=8
# Add any other keys here for services or settings
# you can find in the docker/.env.example file
volumes:
- anythingllm_storage:/app/server/storage
restart: always
volumes:
anythingllm_storage:
driver: local
driver_opts:
type: none
o: bind
device: /path/on/local/disk
根据报错提示,基本就是没有文件夹,没有读写权限,这里举两个例子:
需要创建文件夹:先回到根目录,然后执行 mkdir /path/on/local/disk
还需要给storage赋予可写权限:进入对应文件夹:chmod 777 storage
接下来就在anything这个文件夹内执行:docker-compose up
运行完成之后,不要动,直接去浏览器验证:<anythingllm所在服务器的ip地址>:3001
验证连接
- 检查容器日志
- docker logs <container_id>
直接测试 API
- curl http://<OLLAMA_SERVER_IP>:11434/api/tags
- 查看远程 Ollama 的模型列表
访问应用
- 打开浏览器访问:http://localhost:3001 进入 AnythingLLM的Web界面
- 注意,如果此时将dos窗口关闭,会导致doker容器自动关闭。此时,去宝塔-docker-容器,点击启动即可
windows 10 本地操作
安装大语言模型框架
- 下载安装 AnythingLLM免费开源:允许用户根据自己的需求对模型的架构、预训练数据等进行定制
- 选择模型
- 点击右边箭头,进入下一步并进行后续的引导操作
投喂本地资源
- 选中自己的工作区,并在右侧有个上传按钮,便是我们要投喂资源的路径
- 保存操作之后, 就完成了本地资源的投喂
验收效果
API文档查阅
AnythingLLM 双击运行后,已自动部署本地服务,可按以下路径找到API文档
API调用
开通IP调用:添加环境变量OLLAMA_HOST:0.0.0.0