TensorRT triton003 launch Triton SERVER (乱记)

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

example1

https://www.bilibili.com/video/BV1tt4y1h75i/?

Ensemble folder: https://forums.developer.nvidia.com/t/triton-ensemble-model-version/182635

├─ path/to/models
  ├── ensemble_name
  |  ├── config.pbtxt
  |  ├── 1             (empty)
  ├── MODEL1
  |  ├── config.pbtxt
  |  ├── 1
  ├── MODEL2
  |  ├── config.pbtxt
  |  ├── 1

在这里插入图片描述
在这里插入图片描述

name:"ensemble_model"
platform:"ensemble"  // 平台指定为ensemble
max_batch_size:1
input[
	{
		name:"IMAGE"
		data_type:TYPE_STRING
		dims:[1]
	}
]
output[
	{
		name:"CLASSIFICATION"
		data_type:TYPE_FP32
		dims:[1000]
	},
	{
		name:"SEGMENTATION"
		data_type:TYPE_FP32
		dims:[3,224,224]
	}
]
ensemble_scheduling{
	step[
		{
			model_name :"image_preprocess_model"
			model_version:-1
			input_map { //*_map定义从模型到ensemble_model中的名称映射
				key:"RAW_IMAGE" //key is real input/output name of "image_preprocess_model"
				value:"IMAGE" //第一个步骤的输入名称和上边name:"ensemble_model"的一致
			}
			output_map {
				key:"PREPROCESSED_OUTPUT"  //key is real input/output name of "image_preprocess_model"
				value:"preprocessed_image" // 第一步的输出在ensemble_model的新名称
			}
		},

		{
			model_name :"classification_model"
			model_version:-1
			input_map {
				key:"FORMATTED_IMAGE"
				value:"preprocessed_image"  //名称用于step之间的链接
			}
			output_map {
				key:"CLASSIFICATION_OUTPUT"
				value:"CLASSIFICATION" // 与output名称一致
			}
		},

		{
			model_name :"segmentation_model"
			model_version:-1
			input_map {
				key:"FORMATTED_IMAGE"
				value:"preprocessed_image"
			}
			output_map {
				key:"SEGMENTATION_OUTPUT"
				value:"SEGMENTATION" // 与output名称一致
			}
		}
			
	]

}

注意事项

在这里插入图片描述

example2

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
https://www.bilibili.com/video/BV1tt4y1h75i/?

request

  • https://zhuanlan.zhihu.com/p/482170985
# 安装依赖包
pip install tritonclient[all]


import gevent.ssl
import numpy as np
import tritonclient.http as httpclient


def client_init(url="localhost:8000",
                ssl=False, key_file=None, cert_file=None, ca_certs=None, insecure=False,
                verbose=False):
    """

    :param url:
    :param ssl: Enable encrypted link to the server using HTTPS
    :param key_file: File holding client private key
    :param cert_file: File holding client certificate
    :param ca_certs: File holding ca certificate
    :param insecure: Use no peer verification in SSL communications. Use with caution
    :param verbose: Enable verbose output
    :return:
    """
    if ssl:
        ssl_options = {}
        if key_file is not None:
            ssl_options['keyfile'] = key_file
        if cert_file is not None:
            ssl_options['certfile'] = cert_file
        if ca_certs is not None:
            ssl_options['ca_certs'] = ca_certs
        ssl_context_factory = None
        if insecure:
            ssl_context_factory = gevent.ssl._create_unverified_context
        triton_client = httpclient.InferenceServerClient(
            url=url,
            verbose=verbose,
            ssl=True,
            ssl_options=ssl_options,
            insecure=insecure,
            ssl_context_factory=ssl_context_factory)
    else:
        triton_client = httpclient.InferenceServerClient(
            url=url, verbose=verbose)

    return triton_client


def infer(triton_client, model_name,
          input0='INPUT0', input1='INPUT1',
          output0='OUTPUT0', output1='OUTPUT1',
          request_compression_algorithm=None,
          response_compression_algorithm=None):
    """

    :param triton_client:
    :param model_name:
    :param input0:
    :param input1:
    :param output0:
    :param output1:
    :param request_compression_algorithm: Optional HTTP compression algorithm to use for the request body on client side.
            Currently supports "deflate", "gzip" and None. By default, no compression is used.
    :param response_compression_algorithm:
    :return:
    """
    inputs = []
    outputs = []
    # batch_size=8
    # 如果batch_size超过配置文件的max_batch_size,infer则会报错
    # INPUT0、INPUT1为配置文件中的输入节点名称
    inputs.append(httpclient.InferInput(input0, [8, 2], "FP32"))
    inputs.append(httpclient.InferInput(input1, [8, 2], "INT32"))

    # Initialize the data
    # np.random.seed(2022)
    inputs[0].set_data_from_numpy(np.random.random([8, 2]).astype(np.float32), binary_data=False)
    # np.random.seed(2022)
    inputs[1].set_data_from_numpy(np.random.randint(0, 20, [8, 2]).astype(np.int32), binary_data=False)

    # OUTPUT0、OUTPUT1为配置文件中的输出节点名称
    outputs.append(httpclient.InferRequestedOutput(output0, binary_data=False))
    outputs.append(httpclient.InferRequestedOutput(output1,
                                                   binary_data=False))
    query_params = {'test_1': 1, 'test_2': 2}
    results = triton_client.infer(
        model_name=model_name,
        inputs=inputs,
        outputs=outputs,
        request_compression_algorithm=request_compression_algorithm,
        response_compression_algorithm=response_compression_algorithm)
    print(results)
    # 转化为numpy格式
    print(results.as_numpy(output0))
    print(results.as_numpy(output1))
### TensorRT 在 AUTOCD 中的集成与使用 #### 1. 安装 TensorRT 和依赖项 为了在 AUTOCD 环境下成功集成并使用 TensorRT,首先需要安装必要的库和工具。如果目标平台为 Windows,则可以按照以下方式完成 TensorRT 的安装: 进入 Python 脚本所在的目录后,运行以下命令来安装特定版本的 TensorRT Wheel 文件[^3]: ```bash pip install tensorrt-8.5.3.1-cp38-none-win_amd64.whl ``` 此操作会将指定版本的 TensorRT 库安装到当前环境中。 --- #### 2. 使用 `tensorrtllm_backend` 部署模型 对于基于 TensorRT LLM Backend 的部署流程,官方建议采用脚本来简化服务器配置过程。具体而言,可以通过调用 `launch_triton_server.py` 来快速设置多 GPU 推理环境[^1]。以下是基本的操作指南: 启动 Triton Server 并查看帮助文档中的可用选项: ```bash python launch_triton_server.py -h ``` 这一步骤提供了关于如何调整硬件资源分配以及优化性能的关键参数说明。 --- #### 3. 停止 Triton Inference Service 当不再需要运行服务或者希望重新加载新的模型实例时,可通过终止进程的方式关闭正在工作的 Triton Server 实例[^2]: ```bash pkill tritonserver ``` 上述指令能够有效停止所有关联的服务进程,从而释放计算资源供其他任务使用。 --- #### 4. 自定义 Metric 收集机制 除了基础功能外,在实际应用过程中可能还需要监控各项指标表现以便进一步分析系统瓶颈所在位置。因此引入自定义 metrics 功能显得尤为重要。开发者可以根据项目需求扩展相应的统计逻辑以满足不同场景下的评估标准。 注意:以上提到的内容均需结合具体的业务背景加以实践验证才能得出最合适的解决方案。 --- ### 示例代码片段展示 下面给出一段简单的 Python 示例程序用于演示如何利用 TensorRT 加速神经网络前向传播运算: ```python import tensorrt as trt from tensorflow.python.compiler.tensorrt import trt_convert def convert_to_tensorrt(input_saved_model_dir, output_saved_model_dir): conversion_params = ( trt.DEFAULT_TRT_CONVERSION_PARAMS._replace( precision_mode=trt.TrtPrecisionMode.FP16, max_workspace_size_bytes=(1 << 30), ) ) converter = trt_convert.TrtGraphConverterV2( input_saved_model_dir=input_saved_model_dir, conversion_params=conversion_params, ) converter.convert() converter.save(output_saved_model_dir) convert_to_tensorrt('path/to/input/model', 'path/to/output/model') ``` 该函数实现了从 TensorFlow SavedModel 到 TensorRT Optimized Model 的转换过程,并支持 FP16 半精度浮点数格式以提升效率同时减少内存占用量。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值