onnx模型转caffe模型以及onnx bn和卷积层融合

onnx模型转caffe模型以及onnx bn和卷积层融合

目前文章主要在语雀上编写,有需要移步语雀

1. onnx模型转caffe模型

工具:https://github.com/MTlab/onnx2caffe
以MobileNetV2.onnx为例,执行

python convertCaffe.py ./model/MobileNetV2.onnx ./model/MobileNetV2.prototxt ./model/MobileNetV2.caffemodel

此时会报如下错误:

F0620 09:23:46.248489 198559 cudnn_conv_layer.cpp:53] Check failed: status == CUDNN_STATUS_SUCCESS (4 vs. 0)  CUDNN_STATUS_INTERNAL_ERROR

主要是由于MobileNet depthwise层引发的,在caffe使用depthwise层prototxt中需要添加engine: CAFFE,否则会报cudnn错误。在自动转换模型时onnx2caffe中没有添加engine: CAFFE,需要自己将所有group > 1Convolution层添加该参数,如果有Deconvolution层的depthwise也要加上。举个例子

layer {
  name: "362"
  type: "Convolution"
  bottom: "361"
  top: "362"
  convolution_param {
    num_output: 32
    bias_term: false
    group: 32
    pad_h: 1
    pad_w: 1
    kernel_h: 3
    kernel_w: 3
    stride_h: 1
    stride_w: 1
    dilation: 1
    engine: CAFFE
  }
}

然后注释掉convertCaffe.py中70和71行代码

    #with open(prototxt_save_path, 'w') as f:
        #print(net,file=f)

重新执行上面的脚本即可。


ps:以下错误不一定会有
下面是网络层中存在Deconvolution层可能遇到的错误

F0620 09:41:51.688936 205946 base_conv_layer.cpp:123] Check failed: num_output_ % group_ == 0 (1 vs. 0) Number of output should be multiples of group.

主要是num_output输出推导错误,修改

layer {
  name: "508"
  type: "Deconvolution"
  bottom: "507"
  top: "508"
  convolution_param {
    num_output: 64	# 修改为64,onnx2caffe转的为1
    bias_term: false
    group: 64
    pad_h: 0
    pad_w: 0
    kernel_h: 2
    kernel_w: 2
    stride_h: 2
    stride_w: 2
    engine: CAFFE # 添加
  }
}

2. onnx bn和卷积层融合

import onnx
from onnx import optimizer

ori_model = onnx.load("resnet18.onnx") # 加载原始模型
#all_passes = optimizer.get_available_passes()  # 查看所有可以优化的项
#passes = ['fuse_add_bias_into_conv', 'fuse_bn_into_conv']
passes = ['fuse_bn_into_conv'] # 只将bn融合conv
optim_model = optimizer.optimize(ori_model, passes)
onnx.save(optim_model, "resnet18-sim.onnx")

ps: PyTorch转onnx模型不同版本可能导致上述代码执行出现问题,推荐以下转模型

# pytorch <= 1.1 
torch.onnx.export(model, input, "resnet18.onnx", verbose=False, input_names=input_names, output_names=output_names)
# pytorch >= 1.2    
torch.onnx.export(model, input, "resnet18.onnx", verbose=False, input_names=input_names, output_names=output_names, keep_initializers_as_inputs=True)

References

https://blog.youkuaiyun.com/m0_37192554/article/details/103363571
https://www.cnblogs.com/wanggangtao/p/11388835.html

### 如何在Spring Boot项目中集成LangChain4J #### 配置依赖项 为了使Spring Boot应用程序能够使用LangChain4J库,首先需要更新`pom.xml`文件来引入必要的依赖关系。考虑到当前基于Spring Boot 2.X和JDK 8的环境设置[^1],可以在项目的构建配置文件中加入如下Maven依赖: ```xml <dependency> <groupId>com.langchain4j</groupId> <artifactId>langchain4j-core</artifactId> <version>${langchain4j.version}</version> </dependency> ``` 这里`${langchain4j.version}`应替换为实际使用的LangChain4J版本号。 #### 初始化组件和服务 一旦添加了所需的依赖包,在应用启动时就可以通过创建相应的Bean实例来进行初始化操作。这通常是在某个配置类里完成的,比如下面的例子展示了如何定义一个简单的服务bean用于处理链上数据交互: ```java import com.langchain4j.client.LangChainClient; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; @Configuration public class LangChainConfig { @Bean public LangChainClient langChainClient() { return new LangChainClient(/* 可选参数 */); } } ``` 上述代码片段假设存在名为`LangChainClient`的客户端接口或实现类,它负责与区块链网络通信并提供相应功能支持。 #### 使用自动装配简化开发流程 如果希望进一步减少样板代码量,则可以考虑利用Spring框架提供的@Autowired特性来自动生成所需对象实例。例如,在控制器或其他业务逻辑层可以直接注入之前声明过的`LangChainClient` bean而无需手动new出来: ```java @RestController @RequestMapping("/api/langchain") public class LangChainController { private final LangChainClient client; @Autowired public LangChainController(LangChainClient client) { this.client = client; } // 定义API端点... } ``` 这样做的好处是可以让开发者专注于编写核心业务逻辑而不是担心底层资源管理问题。 #### 处理多入口点的情况 对于那些可能拥有多个带有`main()`函数的应用程序来说——无论是因为它们各自携带了`@SpringBootApplication`注解还是仅仅作为普通的Java程序运行——需要注意的是,默认情况下只有第一个被发现的此类方法会被视为应用程序的主要入口。为了避免潜在冲突,建议指定特定的目标类作为主类,可以通过调整maven插件配置中的属性来达成此目的[^2]: ```xml <build> ... <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> <configuration> <mainClass>com.example.MyApplicationWithMainMethod</mainClass> </configuration> </plugin> </plugins> ... </build> ``` 这样做能确保即使在同一工程中有其他候选者也不会干扰到预期的行为表现。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值