nginx分布式部署ai模型服务教程(多台机器)

本文介绍了如何在Linux系统中安装Nginx,启动和检查其进程,并展示了如何配置Nginx作为反向代理,将请求转发到多个AI模型服务。通过设置upstream和proxy_pass,可以实现负载均衡,同时提供了调用AI模型服务的URL示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

nginx的安装

  • 安装命令如下
sudo apt-get install nginx
  • 启动 nginx 服务器
 systemctl start nginx
  • 查看nginx进程
ps -ef|grep nginx

出现包含nginx进程表明成功

  • 关闭nginx进程命令
killall nginx

部署AI模型服务

  • 首先,需要将AI模型部署在多台服务器上,这里专门指在每台机上安装ai模型服务,也可以用docker来安装
  • 按照上述步骤安装nginx,这里nginx只需要安装在一台机上即可。nginx可以与ai模型服务同一台机,也可以是不同的机器
  • 配置nginx:在nginx配置文件(/etc/nginx/nginx.conf)中添加以下内容,以将请求转发到AI模型服务(在http中添加)
upstream ocr_services {
    server 192.168.203.103:6062 weight=1;
    server 192.168.203.106:6062 weight=3;
    
}
server {
    listen 80; #nginx默认使用的是80端口
    server_name 47.100.77.195;  #可以用服务器的ip当名字
    location / {
        proxy_pass http://ocr_services/ocr;
        client_max_body_size 50m;
    }
     }

在这里插入图片描述

  • AI模型调用接口
url = 'http://[安装nginx服务器的IP]'

例如

url = 'http://47.100.77.195'
### DeepSeek-R1 模型局域网单机部署与多机共享详细教程 #### 一、环境准备 为了成功在局域网内完成DeepSeek-R1模型的单机部署以及多机共享访问,需先准备好必要的硬件和软件资源。 对于不同规模的DeepSeek-R1模型版本,所需显存大小各异。例如deepseek-r1:1.5b仅需1-2G显存即可运行;而大型如deepseek-r1:671b则至少需要496GB显存支持[^2]。因此,在选择具体型号前应评估现有设备条件,并据此挑选合适规格的预训练权重文件下载安装。 与此同时,还需确认目标主机已预先配置好Python开发环境及相关依赖库(如PyTorch),以便后续顺利执行框架搭建工作。 #### 二、单节点服务器端设置 接下来介绍如何基于选定的操作系统平台(Windows或MacOS)来构建能够承载DeepSeek服务的基础架构: ##### (一)获取源码仓库 通过Git工具克隆官方GitHub项目页面上的最新版代码至本地磁盘位置: ```bash git clone https://github.com/your-repo/deepseek.git cd deepseek ``` ##### (二)创建虚拟环境并激活 建议新建独立隔离的工作空间以防止与其他应用程序发生冲突: ```bash python -m venv env source ./env/bin/activate # Linux/MacOS下命令 ./env/scripts/activate.bat # Windows环境下路径 ``` ##### (三)安装必要组件包 依据README.md文档指示逐步加载所需的第三方模块集合: ```bash pip install -r requirements.txt ``` ##### (四)启动API接口监听进程 最后一步就是开启RESTful风格Web Service供外部调用者发起请求交互操作: ```python from fastapi import FastAPI, Request import uvicorn app = FastAPI() @app.post("/predict/") async def predict(request: Request): data = await request.json() result = model.inference(data['input']) return {"output": str(result)} if __name__ == "__main__": uvicorn.run(app, host="0.0.0.0", port=8000) ``` 上述脚本定义了一个简单的HTTP POST路由用于接收客户端提交的数据样本并通过内部实例化的`model`对象来进行推理计算处理逻辑[^1]。 此时如果一切正常的话,则可以在浏览器地址栏输入http://localhost:8000查看是否能正确显示默认欢迎界面,这标志着初步的服务已经就绪可以对外提供功能了! #### 三、跨设备间资源共享机制建立 为了让其他连接在同一网络内的计算机也能享受到相同质量的人工智能辅助能力,还需要进一步调整防火墙策略允许特定IP范围内的流量穿透到达指定开放端口上监听等待着的消息队列里去。 假设当前正在使用的路由器分配给各终端用户的私有IPv4地址段为192.168.x.y形式,那么就需要确保所有参与协作交流过程中的成员都能够无障碍地相互识别彼此的身份信息从而建立起稳定可靠的通信链路关系。 为此可采取如下措施优化安全防护等级的同时不影响正常使用体验效果: - 修改hosts映射表增加自定义域名解析记录指向实际物理位置; - 设置iptables规则放行来自可信子网方向过来的一切合法入站数据报文; - 配置Nginx反向代理转发器平衡负载压力提高整体吞吐量表现水平。 当以上准备工作完成后便实现了真正意义上的分布式集群模式下的协同作业场景应用案例展示目的了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值