runtime用法

我们前面已经讲过一篇runtime 原理,现在这篇文章主要介绍的是runtime是什么以及怎么用!希望对读者有所帮助!

首先,第一个问题, 
1》runtime实现的机制是什么,怎么用,一般用于干嘛? 
这个问题我就不跟大家绕弯子了,直接告诉大家, 
runtime是一套比较底层的纯C语言API, 属于1个C语言库, 包含了很多底层的C语言API。 
在我们平时编写的OC代码中, 程序运行过程时, 其实最终都是转成了runtime的C语言代码, runtime算是OC的幕后工作者
比如说,下面一个创建对象的方法中, 
举例: 
OC : 
[[MJPerson alloc] init] 
runtime : 
objc_msgSend(objc_msgSend(“MJPerson” , “alloc”), “init”)

第二个问题 
runtime 用来干什么呢??用在那些地方呢?怎么用呢? 
runtime是属于OC的底层, 可以进行一些非常底层的操作(用OC是无法现实的, 不好实现)

  • 在程序运行过程中, 动态创建一个类(比如KVO的底层实现)

  • 在程序运行过程中, 动态地为某个类添加属性\方法, 修改属性值\方法

  • 遍历一个类的所有成员变量(属性)\所有方法 
    例如:我们需要对一个类的属性进行归档解档的时候属性特别的多,这时候,我们就会写很多对应的代码,但是如果使用了runtime就可以动态设置! 
    例如,PYPerson.h的文件如下所示

    import

@interface PYPerson : NSObject 
@property (nonatomic, assign) int age; 
@property (nonatomic, assign) int height; 
@property (nonatomic, copy) NSString *name; 
@property (nonatomic, assign) int age2; 
@property (nonatomic, assign) int height2; 
@property (nonatomic, assign) int age3; 
@property (nonatomic, assign) int height3; 
@property (nonatomic, assign) int age4; 
@property (nonatomic, assign) int height4;

@end

而PYPerson.m实现文件的内容如下

<!-- lang: cpp -->
#import "PYPerson.h"

import

@implementation PYPerson

  • (void)encodeWithCoder:(NSCoder )encoder 

    unsigned int count = 0; 
    Ivar 
    ivars = class_copyIvarList([PYPerson class], &count);

    for (int i = 0; i<count; i++) {

    // 取出i位置对应的成员变量
    Ivar ivar = ivars[i];
    
    // 查看成员变量
    const char *name = ivar_getName(ivar);
    
    // 归档
    NSString *key = [NSString stringWithUTF8String:name];
    id value = [self valueForKey:key];
    [encoder encodeObject:value forKey:key];
    

    }

    free(ivars); 
    }

  • (id)initWithCoder:(NSCoder *)decoder 

    if (self = [super init]) {

    unsigned int count = 0;
    Ivar *ivars = class_copyIvarList([PYPerson class], &count);
    
    for (int i = 0; i<count; i++) {
        // 取出i位置对应的成员变量
        Ivar ivar = ivars[i];
    
        // 查看成员变量
        const char *name = ivar_getName(ivar);
    
        // 归档
        NSString *key = [NSString stringWithUTF8String:name];
        id value = [decoder decodeObjectForKey:key];
    
        // 设置到成员变量身上
        [self setValue:value forKey:key];
    }
    
    free(ivars);
    


    return self; 
    }

@end

这样我们可以看到归档和解档的案例其实是runtime写下的

学习,runtime机制首先要了解下面几个问题 
1相关的头文件和函数 
1> 头文件


  • 利用头文件,我们可以查看到runtime中的各个方法!

2> 相关应用

  • NSCoding(归档和解档, 利用runtime遍历模型对象的所有属性)
  • 字典 –> 模型 (利用runtime遍历模型对象的所有属性, 根据属性名从字典中取出对应的值, 设置到模型的属性上)
  • KVO(利用runtime动态产生一个类)
  • 用于封装框架(想怎么改就怎么改) 
    这就是我们runtime机制的只要运用方向

3> 相关函数

  • objc_msgSend : 给对象发送消息
  • class_copyMethodList : 遍历某个类所有的方法
  • class_copyIvarList : 遍历某个类所有的成员变量
  • class_….. 
    这是我们学习runtime必须知道的函数!

4.必备常识 
1> Ivar : 成员变量 
2> Method : 成员方法 
从上面例子中我们看到我们定义的成员变量,如果要是动态创建方法,可以使用Method,

### 关于C++中使用ONNX Runtime的教程 #### C++ ONNX Runtime初始化与模型加载 为了在C++环境中利用ONNX Runtime执行推理操作,开发者需先引入`onnxruntime_cxx_api.h`头文件来访问必要的API函数。通过这些API可以实现会话创建、模型加载以及输入输出张量的操作等功能[^1]。 ```cpp #include "onnxruntime_cxx_api.h" ``` 接着定义一个简单的类用于封装ONNX Runtime的核心逻辑: ```cpp class OrtSessionWrapper { public: Ort::Env env; Ort::Session* session; OrtSessionWrapper(const char* model_path, const Ort::SessionOptions& options) : env(ORT_LOGGING_LEVEL_WARNING, "test"), session(nullptr){ session = new Ort::Session(env, model_path, options); } ~OrtSessionWrapper(){ delete session; } }; ``` 上述代码展示了如何基于给定路径加载指定的ONNX模型并设置环境参数以控制日志级别等行为[^2]。 #### 输入数据准备及推理过程 当完成模型加载之后,则需要准备好待处理的数据作为网络输入,并调用相应的接口来进行前向传播计算得到预测结果。这里给出一段示范性的代码片段说明这一流程: ```cpp // 创建session option对象,默认配置即可满足大多数需求 Ort::SessionOptions so; // 构造器传入model path 和 SessionOption实例化OrtSessionWrapper 对象 std::unique_ptr<OrtSessionWrapper> ort_session(new OrtSessionWrapper("path/to/model.onnx", so)); // 准备好要送入神经网络中的测试样本(此处仅为示意) float input_data[] = { /* ... */ }; // 将input data转换成适合OnnxRuntime使用的Tensor格式 auto memory_info = Ort::MemoryInfo::CreateCpu(OrtArenaAllocator, OrtMemTypeDefault); Ort::Value input_tensor = Ort::Value::CreateTensor<float>(memory_info, input_data, sizeof(input_data)/sizeof(float), {/* dims info here */}); // 获取模型所需全部输入节点名称列表 char** input_names = {"data"}; size_t num_input_nodes = 1; // 执行一次inference call auto output_tensors = ort_session->session->Run( Ort::RunOptions{nullptr}, input_names, &input_tensor, num_input_nodes, nullptr, 0); // 处理解码后的output tensor... for (int i=0;i<output_tensors.size();++i){ float *p_output = output_tensors[i].GetTensorMutableData<float>(); } ``` 此部分实现了从构建运行选项到实际调用`Run()`方法进行推理的过程描述,同时也包含了对于输出结果初步解析的方式。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值