
本地部署大模型
文章平均质量分 96
百年孤独百年
河南师范大学
展开
-
Ollama调用多GPU实现负载均衡
默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环境变量,从而实现多 GPU 的高效利用与负载均衡。原创 2025-04-11 15:05:40 · 354 阅读 · 0 评论 -
docker的anythingllm和open-webui压缩包分享(国内镜像拉取,百度云压缩包分享)
在使用 Docker 部署应用时,通常需要从 Docker Hub 或其他镜像仓库拉取镜像。但有时候,我们可能需要在没有互联网的环境中部署镜像,或者希望直接分享某个镜像给同事、朋友,而不必让他们重新下载。因为很多人使用docker下载文件非常慢,因此我在这里分享一下我docker当前下载的anythingllm和open-webui压缩包。首先分享镜像获取方式,提供两种方式:一个是切换国内镜像,一个是使用我分享的百度云压缩包。原创 2025-03-13 21:38:44 · 1724 阅读 · 0 评论 -
Windows中使用Docker安装Anythingllm,基于deepseek构建自己的本地知识库问答大模型,可局域网内多用户访问、离线运行
本文介绍了如何在 Windows 系统的 CMD 中使用 Docker 安装 AnythingLLM,并搭建自己的知识库问答大模型原创 2025-02-12 11:56:03 · 6377 阅读 · 33 评论 -
使用 Docker 安装 Open WebUI 并集成 Ollama 的 DeepSeek 模型
在本教程中,我们将指导您如何使用 Docker 安装 Open-WebUI,并将其与 Ollama 的 DeepSeek 模型集成。这种方法可以简化部署过程,并确保环境的一致性。原创 2025-02-12 17:56:02 · 6117 阅读 · 2 评论