🧩 一、Ollama 系列镜像
核心能力:专为运行大模型设计的工具链,提供 API 服务,支持 GGUF 等格式模型直接加载
存储兼容性:支持挂载 NAS、CFS、NFS 等共享存储,模型文件独立于镜像
镜像示例:
- 基础镜像:
ollama/ollama:latest- 自定义镜像:集成模型文件与启动脚本(通过
Modelfile定义模型参数)
部署流程:
- 将模型文件(如
qwen-7b-q4_k_m.gguf)放入共享存储路径(如/mnt/models)- 创建 PVC 挂载到容器内目录(如
/root/.ollama/models)- 启动容器时自动加载模型并暴露 API 端口(默认
11434)
适用场景:快速部署开源大模型(如 LLaMA、Qwen、DeepSeek),支持轻量化 API 交互
🤗 二、Hugging Face Transformers 官方镜像
核心能力:原生支持加载 Hugging Face Hub 或本地路径的模型
镜像示例:
nvcr.io/nvidia/pytorch:23.10-py3(NVIDIA 优化)

最低0.47元/天 解锁文章
761

被折叠的 条评论
为什么被折叠?



