- 博客(18)
- 收藏
- 关注
原创 BPE(Byte Pair Encoding)分词算法
BPE(Byte Pair Encoding)是一种用于自然语言处理中的分词算法,主要用于预训练语言模型中的子词分割。
2024-11-20 17:03:42
516
1
原创 pytorch script traced model 以及 模型保存 详解
(由于 torch.jit.trace 方法只跟踪了给定输入张量的执行路径,因此在使用转换后的模块对象进行推理时,输入张量的维度和数据类型必须与跟踪时使用的相同。torch.jit.save 用于保存使用 torch.jit.script 或 torch.jit.trace 转换后的模块对象。torch.jit.load 用于加载使用 torch.jit.script 或 torch.jit.trace 转换后的模块对象。
2023-10-20 11:15:03
1625
1
原创 深度学习环境配置指南!(Windows、Mac、Ubuntu全讲解)
所有的深度学习环境安装指南到这里就结束了,希望能解决你面临的环境配置难题。关于实践项目,可以结合阿里天池的学习赛进行动手实践。
2023-08-02 10:36:04
3016
原创 python项目加密(模型加密,文件加密),涵盖了多种方法以及代码实现
Python作为动态语言一般是以源码方式进行部署的,这就意味着他人在部署机器上可以直接获取项目代码,可能给作者带来不必要的损失和风险,这就需要对代码进行加密或混淆。总体来说1和2的方式还是存在一定的风险,本文将采用第三种方式,且提供五种该类型的加密方式,分别为、Cython、cryptography、RSA、pyAesCrypt和encryptpy。
2023-07-25 16:20:12
7262
原创 Linux centos7 安装TensorRT
注意:a、主要两个文件:TensorRT、pycuda包文件。b、tensorRT需要到官网下载后解压到固定的系统文件夹下即可。pycuda则是直接使用pip安装即可。c、加速流程:pytorch模型转换成onnx,使用自身的onnx模块即可;然后通过onnx转换成tensorrt的模型格式,大概后缀为.engine;最后就可以通过调用这个engine进行相应的加速使用。
2023-03-28 11:22:08
1557
1
原创 各主流深度学习框架转换onnx
Paddle2onnx模型转换动态图ONNX模型导出和静态图ONNX模型导出;动态图大致的原理就是动转静,然后再将静态图模型转换为ONNX模型,所以转换的代码上与动转静很相似;import osimport time import paddle# 从模型代码中导入模型from u2net import U2NETP# 实例化模型model = U2NETP()# 加载预训练模型参数model.set_dict(paddle.load([path to the pretrain
2021-12-20 11:10:00
1497
原创 ONNX的笔记
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档ONNX前言一、ONNX概念?1.ONNX Overview2.ONNX modelONNX Operator SetsONNX OperatorONNX GraphNames Within a GraphNode二、使用步骤(API)1. Loading an ONNX Model2. Saving an ONNX Model3. ManipulatingTensorProtoandNumpyArray4. Creating an ONN
2021-12-17 11:12:55
722
原创 Bilinear interpolation
Bilinear interpolationIts compution procedure and provement:
2021-09-27 11:12:23
108
原创 RoIPooling、RoIAlign区别以及改进
RoIPooling、RoIAlign笔记一、RoIPooling Fast RCNN中提出以便使生成的候选框region proposal映射产生固定大小的feature map。 RoiPooling的工作原理: ![在这里插入图片描述](https://img-blog.csdnimg.cn/20210712215922494.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0
2021-07-12 22:03:05
582
原创 pytorch 分布式训练 详解
主要两种方式:DataParallel和DistributedDataParallelDataParallel实现简单,但速度较慢,且存在负载不均衡的问题。DistributedDataParallel本身是实现多机多卡的,但单机多卡也可以使用,配置稍复杂。详情如下:DataParallel : Parameter Server模式,一张卡为reducer, 负载不均衡的问题比较严重,reducer的那张卡会多出3-4g的显存占用;command model = nn.DataParalle
2021-04-06 11:09:38
791
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人