喂养deepseek

前言

  • deepseek-r1模型,服务端部署deepseek之后,我们已经可以正常使用它的能力与之对话了,现在我希望可以喂养它,让它学习我的本地资料,打造为我的私人助手。

centOS 云服务操作

连接到云服务dos窗口

ssh root@xxxx 

检查并安装docker环境

  • 一般都已经自带docker环境,可以通过 docker -v 指令验证
  • 如未安装自行查阅相关资料安装部署

部署AnythingLLM镜像


使用官方的doker镜像

如果希望使用自己的镜像文件,请直接看生成自己的docker镜像

  • 拉取镜像: docker pull mintplexlabs/anythingllm

    • 遇到问题请添加图片描述
      • 配置镜像加速器地址:参考Docker Hub 镜像加速

        sudo tee /etc/docker/daemon.json <<EOF
        {
        “registry-mirrors”: [
        “https://docker.1ms.run”,
        “https://hub.rat.dev”,
        “https://docker.1panel.live”
        ]
        }
        EOF

        • 如果docker文件夹不存在,要先创建sudo mkdir -p /etc/docker
        • 注意:这里复制过去,可能会出现中文 “ 需要进入/etc/docker/daemon.json,手动修改引号

        sudo systemctl daemon-reload

        sudo systemctl restart docker

        • 遇到问题: Job for docker.service failed because the control process exited with error code. See “systemctl status docker.service” and “journalctl -xe” for details.
        • 检查/etc/docker/daemon.json 语法格式

  • 查看镜像:docker images


生成自己的docker镜像

入手建议使用官方的doker镜像

  • 克隆获取AnythingLLM仓库:git clone https://github.com/Mintplex-Labs/anything-llm.git
  • 进入项目根目录:cd anything-llm
  • 运行并生成.env文件配置环境变量:yarn setup
    • 没有yarn环境

      添加 yum 源配置: curl -sL https://dl.yarnpkg.com/rpm/yarn.repo | sudo tee /etc/yum.repos.d/yarn.repo
      使用 yum 安装 : sudo yum -y install yarn
      查看安装的 Yarn 版本:yarn -v

    • 提示node版本过低

      全局安装n(n是一种node包管理工具): yarn global add n
      升级至最新版本: n latest
      node -v 查看当前版本
      注意如果遇到类似问题,要记得看提示:重新启动dos即可
      请添加图片描述

  • 再次尝试:yarn setup (记得先进anything-llm的根目录)

    遇到错误请添加图片描述修改镜像源:yarn config set sharp_binary_host “https://npmmirror.com/mirrors/sharp”
    此处参考:https://blog.youkuaiyun.com/weixin_53737663/article/details/128958712

  • 再次尝试:yarn setup (记得先进anything-llm的根目录)

持久化存储AnythingLLM的内容

docker volume create anythingllm_data

启动AnythingLLM并配置mintplexlabs/anythingllm镜像中的大语言模型

首先保证你的服务器有docker-compose环境
docker-compose -v 来判断是否已经有了
创建一个文件夹:anythingllm
进入这个文件夹内
创建docker-compose.yml

内容如下:
version: ‘3.8’
services:
anythingllm:
image: mintplexlabs/anythingllm
container_name: anythingllm
ports:
- “3001:3001”
cap_add:
- SYS_ADMIN
environment:
# Adjust for your environment
- STORAGE_DIR=/app/server/storage
- JWT_SECRET=“make this a large list of random numbers and letters 20+”
- LLM_PROVIDER=ollama
- OLLAMA_BASE_PATH=http://<ollama所在ip地址>:11435
- OLLAMA_MODEL_PREF=deepseek-r1:1.5b
- OLLAMA_MODEL_TOKEN_LIMIT=4096
- EMBEDDING_ENGINE=ollama
- EMBEDDING_BASE_PATH=http://<ollama所在ip地址>:11435
- EMBEDDING_MODEL_PREF=deepseek-r1:1.5b
- EMBEDDING_MODEL_MAX_CHUNK_LENGTH=8192
- VECTOR_DB=lancedb
- WHISPER_PROVIDER=local
- TTS_PROVIDER=native
- PASSWORDMINCHAR=8
# Add any other keys here for services or settings
# you can find in the docker/.env.example file
volumes:
- anythingllm_storage:/app/server/storage
restart: always
volumes:
anythingllm_storage:
driver: local
driver_opts:
type: none
o: bind
device: /path/on/local/disk

根据报错提示,基本就是没有文件夹,没有读写权限,这里举两个例子:
需要创建文件夹:先回到根目录,然后执行 mkdir /path/on/local/disk
还需要给storage赋予可写权限:进入对应文件夹:chmod 777 storage

接下来就在anything这个文件夹内执行:docker-compose up
运行完成之后,不要动,直接去浏览器验证:<anythingllm所在服务器的ip地址>:3001

验证连接

  • 检查容器日志
    • docker logs <container_id>

直接测试 API

  • curl http://<OLLAMA_SERVER_IP>:11434/api/tags
    • 查看远程 Ollama 的模型列表

访问应用

  • 打开浏览器访问:http://localhost:3001 进入 AnythingLLM的Web界面
  • 注意,如果此时将dos窗口关闭,会导致doker容器自动关闭。此时,去宝塔-docker-容器,点击启动即可

windows 10 本地操作

安装大语言模型框架

  • 下载安装 AnythingLLM免费开源:允许用户根据自己的需求对模型的架构、预训练数据等进行定制
  • 选择模型请添加图片描述
  • 点击右边箭头,进入下一步并进行后续的引导操作

投喂本地资源

  • 选中自己的工作区,并在右侧有个上传按钮,便是我们要投喂资源的路径
  • 请添加图片描述
    请添加图片描述
    请添加图片描述
  • 保存操作之后, 就完成了本地资源的投喂

验收效果

请添加图片描述

API文档查阅

AnythingLLM 双击运行后,已自动部署本地服务,可按以下路径找到API文档
请添加图片描述
请添加图片描述

API调用

开通IP调用:添加环境变量OLLAMA_HOST:0.0.0.0
请添加图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值