目录
搭建本地 AI 大模型 DeepSeek 并使用 Web 界面调用
Ollama 介绍
Ollama 是一个开源工具,专注于简化大型语言模型(LLMs)的本地部署和管理。它允许用户在本地计算机上运行各种 AI 大模型(如 Llama、DeepSeek、Mistral 等),而无需依赖云服务。Ollama 提供了简单的命令行工具和 API,支持跨平台操作(macOS、Linux、Windows),适合开发者、研究人员和 AI 爱好者使用。
Ollama 的核心功能
-
本地部署:支持在本地计算机上运行大型语言模型,确保数据隐私和低延迟。
-
模型管理:轻松下载、更新和删除模型。
-
跨平台支持:兼容 macOS、Linux 和 Windows。
-
API 支持:提供 RESTful API,方便与其他应用程序集成。
-
社区驱动:开源项目,拥有活跃的社区支持。
搭建本地 AI 大模型 DeepSeek 并使用 Web 界面调用
以下是通过 Ollama 在本地部署 DeepSeek 模型,并使用 Web 界面调用的详细步骤。
前提条件
-
操作系统:macOS、Linux 或 Windows。
-
硬件要求:
-
至少 16GB RAM(建议 32GB 或更高)。
-
至少 50GB 可用存储空间。
-
支持 CUDA 的 GPU(可选,用于加速推理)。
-
-
安装 Python:确保已安装 Python 3.7 或更高版本。
-
安装 Docker(可选):如果使用 Docker 部署 Web 界面,需要安装 Docker。
步骤 1:安装 Ollama
-
下载 Ollama:
-
访问 Ollama 的 GitHub 仓库:Ollama GitHub。
-
下载适合您操作系统的安装包。
-
-
安装 Ollama:
-
对于 macOS 和 Linux,使用终端运行以下命令:
bash
复制
chmod +x ollama-installer.sh ./ollama-installer.sh
-
对于 Windows,双击下载的安装程序并按照提示完成安装。
-
-
验证安装:
-
运行以下命令,检查 Ollama 是否安装成功:
bash
复制
ollama --version
-
步骤 2:下载并运行 DeepSeek 模型
-
下载 DeepSeek 模型:
-
使用以下命令下载 DeepSeek 模型:
bash
复制
ollama pull deepseek
-
-
运行 DeepSeek 模型:
-
启动 DeepSeek 模型:
bash
复制
ollama run deepseek
-
此时,您可以通过命令行与 DeepSeek 模型交互。
-
步骤 3:搭建 Web 界面
为了更方便地调用 DeepSeek 模型,我们可以使用一个简单的 Web 界面。以下是基于 Flask 的 Web 界面搭建步骤。
-
安装 Flask:
-
在终端中运行以下命令安装 Flask:
bash
复制
pip install flask
-
-
创建 Flask 应用:
-
创建一个 Python 文件(如
app.py
),并添加以下代码:python
复制
from flask import Flask, request, jsonify import subprocess app = Flask(__name__) @app.route('/generate', methods=['POST']) def generate(): data = request.json prompt = data.get('prompt', '') # 调用 Ollama 运行 DeepSeek 模型 result = subprocess.run( ['ollama', 'run', 'deepseek', prompt], capture_output=True, text=True ) return jsonify({'response': result.stdout}) if __name__ == '__main__': app.run(host='0.0.0.0', port=5000)
-
-
运行 Flask 应用:
-
在终端中运行以下命令启动 Flask 应用:
bash
复制
python app.py
-
应用将在
http://localhost:5000
上运行。
-
步骤 4:通过 Web 界面调用 DeepSeek 模型
-
发送请求:
-
使用 Postman 或 curl 向 Web 界面发送 POST 请求:
bash
复制
curl -X POST http://localhost:5000/generate \ -H "Content-Type: application/json" \ -d '{"prompt": "你好,介绍一下你自己"}'
-
-
查看响应:
-
Web 界面将返回 DeepSeek 模型的生成结果,例如:
json
复制
{ "response": "你好!我是 DeepSeek,一个基于大型语言模型的 AI 助手。我可以帮助你回答问题、生成文本等。" }
-
步骤 5:使用 Docker 部署(可选)
如果您希望将 Web 界面部署到 Docker 容器中,可以按照以下步骤操作:
-
创建 Dockerfile:
-
在项目目录中创建
Dockerfile
,内容如下:dockerfile
复制
FROM python:3.9-slim WORKDIR /app COPY . . RUN pip install flask CMD ["python", "app.py"]
-
-
构建 Docker 镜像:
-
运行以下命令构建 Docker 镜像:
bash
复制
docker build -t deepseek-web .
-
-
运行 Docker 容器:
-
启动 Docker 容器:
bash
复制
docker run -p 5000:5000 deepseek-web
-
-
访问 Web 界面:
-
在浏览器中访问
http://localhost:5000
,或通过 API 调用。
-
总结
通过 Ollama,您可以轻松在本地部署 DeepSeek 大模型,并通过 Web 界面与其交互。这种方法不仅提供了更高的隐私和灵活性,还允许您在没有互联网连接的情况下使用 AI 大模型。结合 Flask 和 Docker,您可以进一步扩展和部署您的 AI 应用。