DeepSeek部署

1. 开通阿里云PAI

https://pai.console.aliyun.com/#/quick-start/models

问题:

BladeLLM与vLLM区别是什么?

选择标准部署。

服务脚本:

{
    "cloud": {
        "computing": {
            "instances": [
                {
                    "type": "ecs.gn7i-c16g1.4xlarge"
                }
            ]
        }
    },
    "metadata": {
        "instance": 1,
        "rpc": {
            "keepalive": 9000000,
            "worker_threads": 1
        },
        "enable_webservice": true,
        "name": "quickstart_20250205_sfmn"
    },
    "containers": [
        {
            "image": "eas-registry-vpc.cn-hangzhou.cr.aliyuncs.com/pai-eas/chat-llm-webui:3.0.6",
            "port": 8000,
            "script": "python webui/webui_server.py --model-path=/model_dir/ --model-type=qwen2"
        }
    ],
    "storage": [
        {
            "mount_path": "/model_dir/",
            "properties": {
                "resource_type": "model",
                "resource_use": "base"
            },
            "oss": {
                "path": "oss://pai-quickstart-cn-hangzhou/modelscope/models/DeepSeek-R1-Distill-Qwen-7B/",
                "endpoint": "oss-cn-hangzhou-internal.aliyuncs.com"
            }
        }
    ],
    "SupportedInstanceTypes": [
        "ecs.gn7i-c16g1.4xlarge",
        "ecs.gn7i-c32g1.16xlarge",
        "ecs.gn7i-c32g1.32xlarge",
        "ecs.gn7i-c32g1.8xlarge",
        "ecs.gn7i-c8g1.2xlarge",
        "ecs.gn7i-c8g1.2xlarge.limit",
        "ecs.gn8is-2x.8xlarge",
        "ecs.gn8is-4x.16xlarge",
        "ecs.gn8is-8x.32xlarge",
        "ecs.gn8is.2xlarge",
        "ecs.gn8is.4xlarge",
        "ecs.gn8v.6xlarge",
        "ecs.gn8v-2x.12xlarge",
        "ecs.gn8v-4x.24xlarge",
        "ecs.gn8v-8x.48xlarge",
        "ml.gu7i.c128m752.4-gu30",
        "ml.gu7i.c16m60.1-gu30",
        "ml.gu7i.c32m188.1-gu30",
        "ml.gu7i.c64m376.2-gu30",
        "ml.gu7i.c8m30.1-gu30",
        "ml.gu8is.c128m1024.8-gu60",
        "ml.gu8is.c16m128.1-gu60",
        "ml.gu8is.c32m256.2-gu60",
        "ml.gu8is.c64m512.4-gu60",
        "ml.gu8v.c192m1024.8-gu120",
        "ml.gu8v.c24m128.1-gu120",
        "ml.gu8v.c48m256.2-gu120",
        "ml.gu8v.c96m512.4-gu120"
    ]
}


监控:

Stream output 流式输出会陆续显示新的内容,而不是让enduser等十几秒再一起显示。

参考:3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1

### DeepSeek 部署指南 #### 准备工作 为了成功部署DeepSeek模型,确保已掌握基础的Python编程技能和Git操作技巧[^2]。这有助于更顺利地完成后续步骤。 #### 模型导出 按照官方文档指示,将训练好的DeepSeek模型转换成适合生产环境中使用的格式。此过程通常涉及保存优化后的参数文件并打包必要的配置项以便于加载到目标平台上运行[^1]。 #### 基础设施搭建 选择合适的云服务平台或本地服务器作为承载环境,并安装所需的依赖库和服务组件。对于希望快速上手测试的朋友来说,可以考虑利用Docker容器化方案来简化这一环节的工作量;而对于追求高性能的企业级应用,则可能需要更加专业的硬件资源规划和支持。 #### API接口开发 基于RESTful风格设计对外提供访问权限控制机制完善的Web Service端点,使得第三方开发者可以通过简单的HTTP请求获取由DeepSeek处理过的高质量响应结果。同时也要考虑到安全性方面的要求,在传输层面上采取加密措施保护敏感信息的安全性。 #### 正式上线发布 经过充分的功能性和稳定性验证之后,就可以把整个项目部署至线上正式投入使用了。此时还应该建立一套完整的监控体系用于实时跟踪系统的健康状况以及性能表现,及时发现潜在问题并作出相应调整以保障服务质量持续稳定可靠。 ```bash # 使用 Docker 构建镜像示例命令 docker build -t deepseek-model . # 运行容器实例 docker run -d --name deepseek-service -p 5000:5000 deepseek-model ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值