华为云 Flexus+DeepSeek 征文|记录DeepSeek-V3/R1商用服务开通流程和真实使用感受

一、前言

在大模型技术浪潮席卷全球的当下,AI 推理能力已成为企业数字化转型与开发者创新的核心驱动力。华为云顺势推出的 DeepSeek-V3/R1 商用大模型服务,凭借卓越性能脱颖而出。本文将手把手教你在华为云 ModelArts Studio 平台上开通服务,并深入分享真实使用体验,助你快速解锁高效 AI 应用开发新场景。

二、登录注册华为云账号

首先登录注册华为云账号并实名认证,之后进入 ModelArts Studio 平台,签署免责声明并完成服务授权。

在这里插入图片描述

三、开通DeepSeek-V3/R1商用服务

3.1 首先,点击https://www.huaweicloud.com/product/modelarts/studio.html,进入ModelArts Studio大模型即服务平台页面,如下图所示。

在这里插入图片描述

3.2 热门DeepSeek高效智能体模型任君选择

在这里插入图片描述

3.3 可以根据自身需要开发 DeepSeek-R1-32KDeepSeek-V3-32K 等相关服务

在这里插入图片描述

3.4 ✅ 开通成功后即可开始使用DeepSeek-V3/R1进行推理任务

在这里插入图片描述

四、 调用API接口说明教程

在这里插入图片描述

4.1 调用 API 接口

https://api.modelarts-maas.com/v1/chat/completions

DeepSeek-V3 模型

4.2 创建您自己的 API Key
https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/authmanage

在项目中调用MaaS的模型服务时,需要填写您的API Key用于接口的鉴权认证

在这里插入图片描述

4.3 复制调用示例并替换接口信息、API Key
复制下方调用示例代码
替换其中的接口信息(API地址、模型名称)为上方接口信息

curl -X POST "https://api.modelarts-maas.com/v1/chat/completions" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $API_KEY" \
  -d '{ 
    "model": "DeepSeek-V3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "你好"}
    ],
    "stream": true,
    "stream_options": { "include_usage": true },
    "temperature": 0.6
  }'

4.4 JAVA代码案例参考

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.io.OutputStream;
import java.net.HttpURLConnection;
import java.net.URL;
import javax.net.ssl.HttpsURLConnection;
import javax.net.ssl.SSLContext;
import javax.net.ssl.TrustManager;
import javax.net.ssl.X509TrustManager;
import java.security.cert.X509Certificate;

public class ApiClient {
    public static void main(String[] args) {
        try {
            // API配置
            String apiUrl = "https://api.modelarts-maas.com/v1/chat/completions";
            String apiKey = "yourApiKey"; // 替换为实际的API Key
            
            // 禁用SSL证书验证
            disableSslVerification();
            
            // 创建URL对象
            URL url = new URL(apiUrl);
            HttpsURLConnection connection = (HttpsURLConnection) url.openConnection();
            
            // 设置请求方法和头信息
            connection.setRequestMethod("POST");
            connection.setRequestProperty("Content-Type", "application/json");
            connection.setRequestProperty("Authorization", "Bearer " + apiKey);
            connection.setDoOutput(true);
            
            // 构建请求体
            String requestBody = "{" +
                "\"model\":\"DeepSeek-V3\"," +
                "\"messages\": [" +
                    "{\"role\": \"system\", \"content\": \"You are a helpful assistant.\"}," +
                    "{\"role\": \"user\", \"content\": \"你好\"}" +
                "]," +
                "\"stream\": true," +
                "\"temperature\": 0.6" +
            "}";
            
            // 发送请求
            try (OutputStream os = connection.getOutputStream()) {
                byte[] input = requestBody.getBytes("utf-8");
                os.write(input, 0, input.length);
            }
            
            // 获取响应状态
            int statusCode = connection.getResponseCode();
            System.out.println("Status Code: " + statusCode);
            
            // 读取响应内容
            try (BufferedReader br = new BufferedReader(
                    new InputStreamReader(connection.getInputStream(), "utf-8"))) {
                StringBuilder response = new StringBuilder();
                String responseLine;
                while ((responseLine = br.readLine()) != null) {
                    response.append(responseLine.trim());
                    // 处理流式响应,每次接收到一行数据就处理
                    if (!responseLine.trim().isEmpty()) {
                        System.out.println("Received: " + responseLine.trim());
                    }
                }
                System.out.println("Full Response: " + response.toString());
            }
            
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
    
    // 禁用SSL证书验证(仅用于开发测试环境)
    private static void disableSslVerification() {
        try {
            // 创建信任所有证书的信任管理器
            TrustManager[] trustAllCerts = new TrustManager[] {
                new X509TrustManager() {
                    public X509Certificate[] getAcceptedIssuers() {
                        return null;
                    }
                    public void checkClientTrusted(X509Certificate[] certs, String authType) {
                    }
                    public void checkServerTrusted(X509Certificate[] certs, String authType) {
                    }
                }
            };
            
            // 安装信任管理器
            SSLContext sc = SSLContext.getInstance("SSL");
            sc.init(null, trustAllCerts, new java.security.SecureRandom());
            HttpsURLConnection.setDefaultSSLSocketFactory(sc.getSocketFactory());
            
            // 创建允许所有主机名的主机名验证器
            HttpsURLConnection.setDefaultHostnameVerifier((hostname, session) -> true);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

4.5 Python代码案例参考

# coding=utf-8

import requests
import json

if __name__ == '__main__':
    url = "https://api.modelarts-maas.com/v1/chat/completions" # API地址
    api_key = "yourApiKey"  # 把yourApiKey替换成已获取的API Key 
    
    # Send request.
    headers = {
        'Content-Type': 'application/json',
        'Authorization': f'Bearer {api_key}' 
    }
    data = {
        "model":"DeepSeek-V3", # 模型名称
        "messages": [
            {"role": "system", "content": "You are a helpful assistant."},
            {"role": "user", "content": "你好"}
        ],
        # 是否开启流式推理, 默认为False, 表示不开启流式推理
        "stream": True,
        # 在流式输出时是否展示使用的token数目。只有当stream为True时改参数才会生效。
        # "stream_options": { "include_usage": True },
        # 控制采样随机性的浮点数,值较低时模型更具确定性,值较高时模型更具创造性。"0"表示贪婪取样。默认为0.6。
        "temperature": 0.6
    }
    response = requests.post(url, headers=headers, data=json.dumps(data), verify=False)

    # Print result.
    print(response.status_code)
    print(response.text)

4.6 OpenAI SDK调用案例参考

# 安装环境命令。
pip install --upgrade "openai>=1.0"

4.7 OpenAI SDK调用示例。

from openai import OpenAI

if __name__ == '__main__':
	base_url = "https://example.com/v1/infers/937cabe5-d673-47f1-9e7c-2b4de06******/v1"
	api_key = "<your_apiKey>"  # 把<your_apiKey>替换成已获取的API Key。

	client = OpenAI(api_key=api_key, base_url=base_url)

	response = client.chat.completions.create(
		model="******",
		messages=[
			{"role": "system", "content": "You are a helpful assistant"},
			{"role": "user", "content": "Hello"},
		],
		max_tokens=1024,
		temperature=0.6,
		stream=False
	)
	# Print result.     
        print(response.choices[0].message.content)

4.8 普通requests包、OpenAI SDK、curl命令的返回示例如下所示:

{
    "id": "cmpl-29f7a172056541449eb1f9d31c*****",
    "object": "chat.completion",
    "created": 17231*****,
    "model": "******",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "你好!很高兴能为你提供帮助。有什么问题我可以回答或帮你解决吗?"
            },
            "logprobs": null,
            "finish_reason": "stop",
            "stop_reason": null
        }
    ],
    "usage": {
        "prompt_tokens": 20,
        "total_tokens": 38,
        "completion_tokens": 18
    }
}

模型需要通过在线推理提供服务,用于模型体验和调用,可通过监控面板查看运行状况

五、在线体验DeepSeek模型的快感

开通和配置完成后在线体验对应的模型,例如:DeepSeek-V3,在线体验方式如下图所示
在这里插入图片描述

六、REST API 与 OpenAI SDK 特性对比说明

特性REST APIOpenAI SDK
兼容性通用 HTTP 接口(跨平台 / 语言)完全兼容 OpenAI 生态(Python 优先)
流式响应需手动处理 chunk 数据(自定义解析逻辑)原生支持stream参数(一键启用流式)
代码复杂度需要构造 HTTP 请求、处理认证封装完善(无需关注底层交互,调用简洁)
适用场景嵌入式设备、非 Python 环境(如 Java/Go)Python 项目快速集成(Django/Flask 等)
额外功能可查看原始响应头(便于网络调试)自动类型检查(避免参数错误)

补充说明
兼容性
REST API:基于 HTTP 协议,不依赖特定开发环境,适合需要跨平台调用(如移动端、嵌入式设备)的场景。
OpenAI SDK:针对 Python 优化,与 OpenAI 官方工具(如 Fine-tuning、Embeddings)深度集成,减少适配成本。
流式响应处理
REST API:需开发者自行处理数据分片(如 JSON 解析、断连重连),适合对流式逻辑有定制需求的场景。
OpenAI SDK:通过参数配置直接返回流式迭代器(如async for chunk in response),简化开发流程。

个人选型建议
  • 若需跨平台兼容性或底层网络定制,优先选择 REST API;
  • 若使用 Python 开发且追求效率,推荐使用 OpenAI SDK 以减少开发量。

七、最后总结

实际使用中,华为云与 DeepSeek 的结合表现出色。Flexus 系列云服务器凭借柔性计算技术,实现资源实时弹性分配,契合 DeepSeek-V3/R1 推理时的负载波动需求。DeepSeek-V3 以 6710 亿参数覆盖多模态任务,支持 128K 长上下文窗口;R1 在数学推理、代码生成等场景性能卓越,推理成本低。在 ModelArts Studio 平台上,昇腾 AI 处理器与 DeepSeek 模型深度适配,提升了推理速度与训练效率。通过 “模型即服务” 模式,用户可便捷调用预训练模型并享有全生命周期服务。此外,与 Dify -LLM 低代码开发平台协同,能快速构建智能应用。整体而言,服务开通流程顺畅,模型推理能力强大,在智能问答、代码生成等场景适配性佳,为开发者与企业提供了高效、强大的 AI 解决方案
在这里插入图片描述

复杂几何的多球近似MATLAB类及多球模型的比较 MATLAB类Approxi提供了一个框架,用于使用具有迭代缩放的聚集球体模型来近似解剖体积模型,以适应目标体积模型比较。专为骨科、生物力学计算几何应用而开发。 MATLAB class for multi-sphere approximation of complex geometries and comparison of multi-sphere models 主要特点: 球体模型生成 1.多球体模型生成:与Sihaeri的聚集球体算法的接口 2.音量缩放 基于体素的球体模型参考几何体的交集。 迭代缩放球体模型以匹配目标体积。 3.模型比较:不同模型体素占用率的频率分析(多个评分指标) 4.几何分析:原始曲面模型球体模型之间的顶点到最近邻距离映射(带颜色编码结果)。 如何使用1.代码结构:Approxi类可以集成到相应的主脚本中。代码的关键部分被提取到单独的函数中以供重用。 2.导入:将STL(或网格)导入MATLAB,并确保所需的函数,如DEM clusteredSphere(populateSpheres)inpolyhedron,已添加到MATLAB路径中 3.生成多球体模型使用DEM clusteredSphere方法从输入网格创建多球体模型 4.运行体积交点:计算多球体模型参考几何体之间的基于体素的交点,并调整多球体模型以匹配目标体积 5.比较可视化模型:比较多个多球体模型的体素频率,并计算多球体模型与原始表面模型之间的距离,以进行2D/3D可视化 使用案例: 骨科生物力学体积建模 复杂结构的多球模型形状近似 基于体素拟合度量的模型选择 基于距离的患者特定几何形状近似值分析 优点: 复杂几何的多球体模型 可扩展模型(基于体素)-自动调整到目标体积 可视化就绪输出(距离图)
## 题目重述 在更换为华为云镜像源时,`gpgkey` 字段是否需要修改?如果需要,应该如何修改? ## 详解 在将 openEuler 系统的软件源更换为华为云镜像时,关于 `gpgkey` 的处理有两种方式:**保留原始 GPG 密钥地址** 或 **使用镜像站提供的密钥地址**。推荐做法如下: ### ✅ 推荐方案:更新 `gpgkey` 指向华为云镜像路径 虽然 GPG 密钥内容本身不会因镜像而改变(签名仍由 openEuler 官方提供),但为了保证配置一致性并避免网络访问冲突,建议也将 `gpgkey` 的 URL 中的域名替换为华为云镜像域名。 #### 修改规则: 将原 `gpgkey=http://repo.openeuler.org/...` 改为: ``` https://mirrors.huaweicloud.com/openeuler/... ``` #### 示例修改: 原配置: ```ini [OS] name=OS baseurl=http://repo.openeuler.org/openEuler-22.09/OS/$basearch/ enabled=1 gpgcheck=1 gpgkey=http://repo.openeuler.org/openEuler-22.09/OS/$basearch/RPM-GPG-KEY-openEuler ``` ✅ 修改后: ```ini [OS] name=OS baseurl=https://mirrors.huaweicloud.com/openeuler/openEuler-22.09/OS/$basearch/ enabled=1 gpgcheck=1 gpgkey=https://mirrors.huaweicloud.com/openeuler/openEuler-22.09/OS/$basearch/RPM-GPG-KEY-openEuler ``` > 🔔 注意:必须确保 `gpgcheck=1` 开启以验证包完整性,且密钥路径与 baseurl 对应模块一致。 ### ❗特殊情况说明: 若发现 `gpgkey` 地址无法访问,可通过以下命令手动导入官方密钥: ```bash rpm --import https://mirrors.huaweicloud.com/openeuler/RPM-GPG-KEY-openEuler ``` 然后可在 repo 文件中省略 `gpgkey` 行(前提是已全局导入)。 --- ## 知识点(列出解答该问题需要的知识点) 1. **GPG 密钥验证机制** GPG 用于验证软件包来源可信性,`gpgcheck=1` 时必须正确指定 `gpgkey` 地址或已导入密钥。 2. **镜像源配置一致性原则** 所有 URL(包括 baseurl gpgkey)应统一指向同一镜像站,避免跨源请求失败。 3. **RPM 包管理系统密钥管理命令** 可使用 `$ rpm --import <URL>` 手动导入 GPG 密钥,解决密钥缺失问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值