4.6.2 构建onnx结构模型-特殊情况下的Gather

本文详细介绍了如何通过Python代码使用onnx库构建Gather节点模型,包括从PyTorch转换和自定义节点,以及如何使用onnxruntime进行运行和验证。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

构建onnx方式通常有两种:
1、通过代码转换成onnx结构,比如pytorch —> onnx
2、通过onnx 自定义结点,图,生成onnx结构

本文主要是简单学习和使用两种不同onnx结构,
下面以gather 结点进行分析

采用onnx方式构建

from onnx import TensorProto, helper
import onnx
import onnxruntime
import numpy as np

def construct_model_gather():
    print("construct model start... \n")
    input_shape1 = []
    indices = 2
    axis= 0
    input_shape0 = [3]
    output_shape = []

    initializer = [
        helper.make_tensor("indices", TensorProto.INT64, input_shape1, [indices])
    ]
    Gather = helper.make_node(
        "Gather", inputs=["data", "indices"], outputs=["output"], name="Gather_test"
    )
    Gather.attribute.extend([onnx.helper.make_attribute("axis", axis)])
    graph = helper.make_graph(
        nodes=[Gather],
        name="test_graph",
        inputs=[
            helper.make_tensor_value_info(
                "data", TensorProto.INT64, tuple(input_shape0)
            )
        ],  # use your input
        outputs=[
            helper.make_tensor_value_info(
                "output", TensorProto.INT64, tuple(output_shape)
            )
        ],
        initializer=initializer,
    )
    opset_imports = [onnx.helper.make_operatorsetid("", version=12)]
    model = onnx.helper.make_model(graph, opset_imports=opset_imports)
    model.ir_version = onnx.IR_VERSION
    onnx.checker.check_model(model)
    print("construct model done... \n")
    return model

def run(model_file):
    print(f'run start....\n')
    session = onnxruntime.InferenceSession(model_file, providers=['CPUExecutionProvider'])
    input_name1 = session.get_inputs()[0].name  
    input_data1= np.random.randn(3).astype(np.int64)
    print(f'input_data1:{input_data1}')

    pred_onx = session.run( None, {input_name1: input_data1})

    print(f'pred_onx:{pred_onx}\n')
    print(f'pred_onx[0].shape:{pred_onx[0].shape}\n')
    print(f'run done....\n')


if __name__ == '__main__':
    model = construct_model_gather()
    model_file = "test.onnx"
    onnx.save(model, model_file)
    run(model_file)

在进行gcc-4.6.2-glibc-2.13-linaro-multilib-2011.12 QT移植的过程中,有几个步骤需要注意。首先,在步骤1中,需要将文件gcc-4.6.2-glibc-2.13-linaro-multilib-2011.12.tar.gz拷贝到Ubuntu主目录下。\[2\]然后,在步骤3中,需要查看是否成功解压了gcc-4.6.2-glibc-2.13-linaro-multilib-2011.12文件夹。可以通过执行命令"ls -l /opt/freescale/usr/local"来确认是否解压成功。如果可以看到该文件夹,则表示解压成功。\[1\]最后,在进行QT移植之前,需要设置环境变量,将gcc-4.6.2-glibc-2.13-linaro-multilib-2011.12的路径添加到PATH中,并执行"reboot"命令来重启系统。\[3\]这样就完成了gcc-4.6.2-glibc-2.13-linaro-multilib-2011.12 QT移植的准备工作。 #### 引用[.reference_title] - *1* *2* [交叉编译环境搭建](https://blog.csdn.net/starshinning975/article/details/103277447)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [Linux配置、安装交叉编译环境 gcc-4.6.2-glibc-2.13-linaro-multilib-2011.12.tar.gz](https://blog.csdn.net/flyman613/article/details/87937341)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

nsq_ai

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值