在 Amazon Bedrock 上部署 DeepSeek R1 模型涉及使用自定义模型导入功能,它允许将外部微调的模型无缝集成到 Bedrock 环境中。这个过程使您能够利用 Bedrock 的无服务器基础设施和统一 API 进行高效的模型部署。
前提条件
-
模型兼容性:
确保您的 DeepSeek R1 模型基于受支持的架构,如 Llama 2、Llama 3、Llama 3.1、Llama 3.2 或 Llama 3.3。Amazon Bedrock 支持这些架构的自定义模型导入。 -
模型文件准备:
准备必要的模型文件,格式为 Hugging Face 格式,包括:.safetensors
格式的模型权重文件。- 配置文件 (
config.json
)。 - 分词器文件 (
tokenizer_config.json
,tokenizer.json
,tokenizer.model
)。
这些文件应存储在您 AWS 账户可访问的 Amazon S3 存储桶中。
重要提示: 模型已以安全张量格式提供,因此无需单独准备文件。
步骤部署指南
1. 安装所需依赖项
首先安装必要的 Python 包:
bash
复制代码pip install huggingface_hu