
深度学习
文章平均质量分 74
颢师傅
这个作者很懒,什么都没留下…
展开
-
【DeepStream】基于英伟达DeepStream框架进行算法开发(三):Gst-nvinfer模块介绍
该插件接受来自上游的批处理的 NV12/RGBA 缓冲区。NvDsBatchMeta 结构必须已附加到 Gst 缓冲区。底层库(libnvds_infer)可处理任何 INT8 RGB、BGR 或 GRAY 数据,其尺寸为网络高度和网络宽度。Gst-nvinfer 插件根据网络要求对输入帧执行变换(格式转换和缩放),并将转换后的数据传递给低级库。底层库对转换后的帧进行预处理(执行归一化和均值减法),生成最终的 float RGB/BGR/GRAY 平面数据,然后传递给 TensorRT 引擎进行推理。原创 2024-02-28 18:52:16 · 1430 阅读 · 0 评论 -
【DeepStream】基于英伟达DeepStream框架进行算法开发(二):推理基础流程
当需要将一个元素连接到另一个元素时,可以使用 get_request_pad() 方法从目标元素中请求一个 pad,然后将这个 pad 与其他元素的 pad 进行连接,实现元素之间的数据传输。这行代码将 caps 元素的输出 pad 和之前获取的 streammux 元素的请求 pad 进行连接,即将属性设置元素的输出与合流器元素的输入连接起来,使视频流能够正确传递到合流器中的指定输入通道。这行代码从 caps 元素的 “src” pad 中获取一个静态 pad,并将其存储在 srcpad 变量中。原创 2024-02-27 14:20:10 · 1454 阅读 · 0 评论 -
【DeepStream】基于英伟达DeepStream框架进行算法开发(一):GStreamer基础
在当今快速发展的人工智能和计算机视觉领域,英伟达的DeepStream框架提供了强大的工具和功能,帮助开发者快速部署和优化实时视频分析应用。本博客将重点介绍基于英伟达DeepStream框架进行算法开发的方法和技巧,包括如何利用DeepStream框架构建高效的算法模型、实现实时视频流处理和应用优化等内容。通过本博客的学习,读者将能够掌握在DeepStream框架下进行算法开发的关键技能,为自己的视频分析项目提供更加稳定和高效的解决方案。原创 2024-02-27 09:50:25 · 857 阅读 · 0 评论 -
【SOPHON】算能盒子SE-16中c++版本pipeline的环境配置
arm SoC平台,内部已经集成了相应的libsophon、sophon-opencv和sophon-ffmpeg运行库包,位于下。通常在x86主机上交叉编译程序,使之能够在arm SoC平台运行。您需要在x86主机上使用SOPHON SDK搭建交叉编译环境,将程序所依赖的头文件和库文件打包至soc-sdk目录中。原创 2023-11-02 17:54:42 · 346 阅读 · 0 评论 -
【SOPHON】算能盒子SE-16的配套x86交叉编译环境搭建
tpu-mlir 为TPU编译器工程提供一套完整的工具链,可以将不同框架下预训练的神经网络,转化为可以在算能TPU上高效运行的二进制文件BModel。目前直接支持的框架包括tflite、onnx和Caffe。libsophon 提供BMCV、BMRuntime、BMLib等库,用来驱动VPP、TPU等硬件,完成图像处理、张量运算、模型推理等操作,供用户进行深度学习应用开发。原创 2023-10-19 13:49:23 · 1097 阅读 · 0 评论 -
【Deepsort】C++版本Deepsort编译(依赖opencv,eigen3)
广泛的功能:Eigen3支持多种线性代数运算,包括向量和矩阵的基本运算、线性方程组的求解、特征值和特征向量的计算、矩阵分解(如LU分解、QR分解等)、广义特征值问题的求解等。Eigen3是一个C++模板库,提供了许多用于线性代数运算的功能,如向量、矩阵、矩阵运算、线性方程组求解等。它的API设计简洁明了,提供了丰富的运算符重载和友好的语法,使得代码编写更加简单和可读。高性能:Eigen3使用了优化的算法和技术,具有出色的运行速度和高效的内存使用。它的源代码可在GitHub上获得,方便用户进行定制和扩展。原创 2023-08-01 20:10:22 · 2447 阅读 · 2 评论 -
【NCNN】arm架构cpu的硬件加速代码样例
NCNN(Nihui’s CNN)是一个轻量级、高性能的深度学习推理框架,由腾讯优图实验室的大神Nihui开发。该框架在移动端应用和嵌入式设备上实现了高效的深度学习模型推理,具有较低的内存占用和高度优化的计算性能。原创 2023-07-25 15:22:07 · 1661 阅读 · 0 评论 -
【NCNN】NCNN中Mat的crop与resize方法
这段代码是为了将一个ncnn::Mat对象out中的像素数据从一个具有3个通道的图像数据im中提取出来,并实现贴图的效果。通过以上操作,可以将图像数据im中指定位置的像素数据提取出来,并填充到ncnn::Mat对象out中,从而实现贴图的效果。通过以上操作,可以将输入图像im中指定位置的像素数据,经过双线性插值的方式,缩放并存储到输出图像outim的指定位置。这段代码实现了将输入图像im中指定位置的像素数据,经过双线性插值的方式,缩放并存储到输出图像outim的指定位置。原创 2023-07-24 18:24:14 · 1125 阅读 · 1 评论 -
【NCNN】NCNN中Mat与CV中Mat的使用区别及相互转换方法
功能和用途:ncnn::Mat主要用于在ncnn中进行模型推理和图像处理,提供了与ncnn库相关的功能和接口。总结来说,ncnn::Mat和cv::Mat在用途和功能上有一些差异,但它们都用于处理图像和矩阵数据,并提供了类似的API,以便于访问和操作这些数据。数据存储方式:ncnn::Mat使用行优先存储方式,而cv::Mat使用列优先存储方式。ncnn::Mat和cv::Mat在某些方面是相似的,但也存在一些区别。ncnn::Mat和cv::Mat都是用于表示图像或矩阵数据的类。原创 2023-07-21 20:24:38 · 2195 阅读 · 0 评论 -
【NCNN】腾讯ncnn推理框架的简介及安装
ncnn(Ncnn Convolutional Neural Network)是一个轻量级的高性能深度学习框架,由腾讯公司开发。它专门为移动设备和嵌入式设备优化,旨在提供高效的推理性能和低内存占用。以下是ncnn的一些主要特点和优势:轻量级和高性能:ncnn被设计为轻量级框架,具有高效的推理性能。它使用优化的计算图和内存管理策略,以最大程度地减少内存占用和计算开销。跨平台支持:ncnn支持多种操作系统和硬件平台,包括Android、iOS、Linux、Windows等。原创 2023-07-20 19:07:49 · 11554 阅读 · 5 评论 -
【CV】从分类到回归:常见算法评价指标,如ROC,MAP等
在ROC曲线中,点(0,0)表示将所有样本都预测为负样本,点(1,1)表示将所有样本都预测为正样本,曲线越靠近左上角,表示模型的性能越好。与算术平均数、几何平均数和中位数等常见的平均数不同,调和平均数更加关注小数值,因为任何一个小于1的数的倒数都大于1,所以当一组数据中有个别数较小的时候,调和平均数会受到这些小数的影响而偏小。P-R曲线的优点是对于正样本的分类能力有更好的体现,对于每张测试图片,需要计算出该图片中每个物体类别的平均精度(AP),然后将所有物体类别的平均精度的平均值作为该图片的平均精度。原创 2023-06-25 15:37:57 · 1790 阅读 · 1 评论 -
【CV】EfficientNet相比resnet有哪些优点,什么是深度可分离卷积
高效的神经网络主要通过:1. 减少参数数量;2. 量化参数,减少每个参数占用内存目前的研究总结来看分为两个方向:一是对训练好的复杂模型进行压缩得到小模型;二是直接设计小模型并进行训练。(EfficientNet属于这类)深度可分离卷积中的深度卷积不改变输入通道数,再由逐点卷积的方式,将多通道信息相融合。ResNet和EfficientNet都是非常经典和高效的卷积神经网络,它们各有特点,适用于不同的场景和任务。原创 2023-06-25 10:23:55 · 2964 阅读 · 0 评论 -
【Atlas200】使用华为ACL库实现ResNet 推理(C++版本)
华为ACL(Ascend Compute Library)是一款基于华为昇腾芯片的AI推理加速库,提供了一系列高性能、高效能的计算接口,支持多种常见的深度学习模型的推理加速。ACL具有高度的灵活性和可扩展性,可以轻松地与各种服务器、云平台和数据中心集成,满足不同规模、不同应用场景下的需求。ACL提供了丰富的接口,包括数据输入输出、模型加载和推理计算等核心功能,同时还支持多种精度的计算方式,包括FP32、FP16和INT8等,可以满足不同场景下的需求。原创 2023-05-18 18:16:59 · 1357 阅读 · 1 评论 -
【Atlas200】华为适配ATC模型转换工具
ATC模型转换工具具有高效、快速、准确的特点,可以帮助用户将深度学习模型快速部署到华为AI芯片上,从而实现高效的推理和计算。要解决该问题,需要在运行ATC工具时指定正确的–soc_version参数。其中,“–input_shape ”中的“-1”表示设置动态BatchSize,具体支持哪些BatchSize由“–dynamic_batch_size”决定。其中,“–input_shape ”中的“-1,-1”表示设置动态分辨率,具体支持哪些分辨率由“–dynamic_image_size ”决定。原创 2023-05-18 09:55:25 · 2189 阅读 · 0 评论 -
【深度学习】RGB图像的内存排列方式及HWC和CHW格式解析
RGB图像是计算机视觉和图像处理领域中最为常见的图像格式之一,而在进行图像处理和深度学习计算时,通常需要对图像的尺寸和通道数进行规范化。本文将对RGB图像的内存排列方式、HWC和CHW格式进行详细解析,并探讨它们之间的关系。本文对RGB图像的内存排列方式、HWC和CHW格式进行了详细解析,并探讨了它们之间的关系。在进行图像处理和深度学习计算时,需要对图像的尺寸和通道数进行规范化,以便于不同框架和库之间进行数据格式转换和模型输入。原创 2023-05-11 15:21:05 · 7716 阅读 · 2 评论 -
【边缘计算】登临(Goldwasser-UL64)BW-BR2边缘设备配置指南
每次使用cuda都需激活环境变量,推荐将相关配置写入~/.bashrc内。文档在/sdk/documents/下。查看ssh的状态,没有返回说明没有启动。此时说明ssh服务已启动。(密码同为root)原创 2023-04-19 17:00:25 · 1308 阅读 · 4 评论 -
【Atlas500】华为500小站预配置
使用xshell连接后,输入develop命令,输入root用户密码(TianGong8000@)执行命令:cd /opt/middleware/MindXOM/bin进入脚本文件所在路径。允许root用户ssh的方法,并确保sshd文件中开启了subsystem sftp。启,那么需要通过命令进行添加,并重启ibma-edge-start服务使配置生效。用户通过Web界面进行操作时,只能使用已经开启的能力项。登录后使用 sftp enable,启动stfp服务。● 默认用户名:admin。原创 2023-04-17 15:04:24 · 1377 阅读 · 0 评论 -
【深度学习】使用ffmpg及gstreamer进行视频拉流及编解码(一):ffmpg
GStreamer:一款功能强大的多媒体框架,可以用于音视频的采集、编码、解码、处理和传输。FFmpeg:一个开源的音视频处理工具,可以用于音视频的采集、编码、解码、转码、处理等。FFmpeg和GStreamer都是流媒体处理框架,它们在音视频编解码、转码、过滤、采集等方面都有广泛的应用。FFmpeg是一个开源的音视频处理库,支持多种音视频格式的编解码、转码、过滤等操作。原创 2023-03-30 19:47:07 · 6398 阅读 · 0 评论 -
【pytorch】深度学习模型调参策略(五):采用贝叶斯工具进行最优参数搜索及最佳步数确认
optuna是一个用于超参数优化的Python库。它提供了一种简单、高效的方法来搜索模型的最优超参数组合,以最大化或最小化目标函数(例如验证集准确率或损失函数)。optuna支持多种搜索算法,包括随机搜索、网格搜索和基于贝叶斯优化的搜索。它还支持并行化搜索,并提供了可视化工具来帮助用户分析搜索结果。使用optuna可以帮助用户节省大量时间和精力,从而更快地找到最优的超参数组合,并提高模型的性能。optuna不仅可以用于机器学习领域,也可以用于优化任何需要调整超参数的任务。原创 2023-03-28 15:57:38 · 5159 阅读 · 0 评论 -
【pytorch】深度学习模型调参策略(四):鉴别并解决训练中的不收敛及不稳定的情况
常见的梯度裁剪方法包括L2范数裁剪和L1范数裁剪。max_grad_norm是指梯度裁剪的阈值,通常取值在1到10之间,可根据情况进行调整,max_grad_norm的值越大,梯度裁剪的程度越小,模型训练的稳定性相对较差,但可能会取得更好的性能。相反,max_grad_norm的值越小,梯度裁剪的程度越大,模型训练的稳定性相对较好,但可能会导致性能下降。L2范数能够有效地衡量梯度的大小,因为它是对梯度各元素的平方和进行开方,而平方和能够很好地表示梯度的大小,而开方能够将梯度的大小映射到一个非负的标量值。原创 2023-03-28 11:31:26 · 3713 阅读 · 0 评论 -
【pytorch】深度学习模型调参策略(三):超参数搜索实验设计与曲线分析
尽可能多地包含麻烦超参数并允许每个麻烦超参数在尽可能广泛的范围内变化,可以增加我们的信心,即在每个科学超参数配置的搜索空间中存在“好”的麻烦超参数值。在更复杂的情况下,如果我们想比较大量科学超参数的值,而独立创建这么多的研究是不切实际的,我们可以将科学参数包含在与麻烦超参数相同的搜索空间中,并使用搜索算法在单个研究中采样科学和麻烦超参数的值。如果所有试验在某个阈值以上的学习率下都是不可行的,并且表现最佳的试验的学习率处于该区域的边缘,则模型可能存在稳定性问题,阻止它访问更高的学习率。原创 2023-03-27 10:53:49 · 1367 阅读 · 0 评论 -
【pytorch】深度学习模型调参策略(二):超参数的分类与调整经验
例如,dropout正则化技术会增加代码的复杂性,因此在决定是否使用它时,我们会将“无dropout”与“dropout”作为科学超参数,而dropout rate则是一个麻烦的超参数。如果资源足够的话,我们会让所有非科学超参数都保持为困扰超参数,以便从我们的实验中得出的结论不受固定超参数值的限制。固定超参数是在一轮实验中被固定的超参数,这些超参数的值不需要改变或者我们不希望它们改变,以便在比较不同科学超参数的值时减少不必要的变量。的超参数,以便在比较不同科学超参数的值时能够进行公平的比较。原创 2023-03-25 19:18:01 · 950 阅读 · 0 评论 -
【pytorch】深度学习模型调参策略(一):选择架构,优化器及批大小
因此,为了确定可行的批处理大小,我们需要在不同的批处理大小下运行训练作业,并找到一个最大的批处理大小,使训练吞吐量增加。另一方面,训练更少的步骤意味着每个训练运行更快,使用更少的资源,通过减少周期之间的时间并允许更多的实验并行运行来提高调整效率。特别是在项目的开始阶段,当我们试图找到各种其他超参数(例如架构超参数)的最佳值时,同时将优化器超参数视为麻烦的参数。在项目的初期阶段,最好选择一个更简单的优化器(例如具有固定动量的SGD或具有固定参数的Adam),并在以后切换到更通用的优化器。这些都可以以后添加。原创 2023-03-25 18:39:47 · 1527 阅读 · 0 评论 -
【pytorch】利用泊松融合扩充深度学习图像分类的数据集
泊松融合(Poisson blending)的原理是将一张图像的一部分无缝融合到另一张图像中,保持融合部分的自然感觉。它利用了拉普拉斯方程的性质,将两幅图像的像素值作为边界条件,通过求解拉普拉斯方程得到融合后的图像。在深度学习中,可以利用泊松融合扩充数据集,例如将同一物体的不同角度、不同光照、不同背景等进行融合,从而得到更多的训练数据(例如yolo数据集)。在图片分类任务中,当两个图片属于不同类别时,进行泊松融合后的图片类别是难以确定的。原创 2023-03-03 16:57:23 · 1225 阅读 · 0 评论 -
【pytorch】搭建带有注意力机制的图像分类网络,实现空间注意力
注意力机制是深度学习中重要的技术之一,它可以使模型在处理序列数据时,更加集中地关注重要的部分,从而提高模型的性能和效率。在自然语言处理和机器翻译等任务中,注意力机制已经得到广泛应用。在机器视觉领域,注意力机制也被广泛应用,特别是在图像分类、目标检测和图像分割等任务中。在这些任务中,注意力机制通常用来提高模型对关键区域的关注度,从而提高模型的准确性和鲁棒性。例如,在图像分类任务中,注意力机制可以帮助模型在图像中关注到更加重要的区域,从而提高分类的准确性。原创 2023-03-03 16:32:56 · 1789 阅读 · 0 评论 -
【pytorch】使用训练好后的模型权重,在验证集上输出分类的混淆矩阵并保存错误图片
首先,我们需要准备一个pytorch框架的模型,并将模型权重载入到模型中。总之,本文介绍了如何使用pytorch框架,利用训练好后的模型权重,在验证集上输出分类的混淆矩阵,并保存错误图片的方法。通过使用混淆矩阵,我们可以更好地理解模型在验证集上的表现,并及时发现模型的问题,从而提高模型的准确率。在机器学习领域,混淆矩阵是一个非常有用的指标,它可以帮助我们更好地理解模型在验证集上的表现。本文介绍了如何使用pytorch框架,利用训练好后的模型权重,在验证集上输出分类的混淆矩阵,并保存错误图片的方法。原创 2023-02-08 15:28:13 · 1423 阅读 · 0 评论 -
【pytorch】基于pytorch和resnet18的图片二分类网络微调(Fine Tune)全过程
然后,我们将介绍resnet50模型的结构,以及如何使用pytorch的nn.Module模块来定义模型。最后,我们将介绍如何使用pytorch的nn.Module模块来定义模型,以及如何使用pytorch的optimizer模块来优化模型参数,以及如何使用pytorch的nn.Module模块来实现图片二分类网络微调(Fine Tune)的全过程。此外,Pytorch还提供了nn.Module模块,可以帮助开发者快速构建深度学习模型,以及optimizer模块,可以帮助开发者优化模型参数。原创 2023-02-08 00:26:20 · 3446 阅读 · 1 评论 -
【pytorch】图片分类问题处理一般数据集,使其满足torchvision.datasets.ImageFolder调用结构
对于简单的图像分类任务,并不需要自己定义一个 Dataset类,可以直接调用 torchvision.datasets.ImageFolder 返回训练数据与标签。数据集应满足pytorch的格式要求,即将数据集分割为训练集和测试集,并将数据和标签分别放入不同的文件夹;下面的函数,将人眼睁闭数据集转换为pytorch指定的结构;同时,应兼顾按比例划分训练集,测试集及验证集的需求。原创 2023-02-07 08:30:00 · 662 阅读 · 0 评论 -
【C++】不破坏原程序结果的毫秒级计时器
这种方法适用于程序连续计时:其中TIME_START只能出现一次。适用于在一个函数内需要分段计时的情况;使用lambda函数进行包装计时。原创 2023-02-01 15:25:32 · 439 阅读 · 0 评论 -
【计算机视觉】dlib库的编译及安装(centos)
dlib是一个开源的C++库,提供了许多机器学习、图像处理和数据挖掘算法。它包含了大量的工具,可用于创建各种应用,如人脸识别、行人检测、特征检测和跟踪等。dlib的一个优势是其提供的算法在性能上优于其他类似库。dlib库主要提供了以下功能:人脸识别:可以在图像和视频中识别人脸并定位人脸位置。人脸对齐:可以对不同姿态的人脸进行对齐。人脸特征点检测:可以检测人脸的特征点,如眼睛、鼻子、嘴巴等。姿态估计:可以估计人脸的姿态,如头部转动角度。人脸识别:可以进行人脸识别,将不同人脸辨别出来。原创 2023-01-28 18:50:24 · 2045 阅读 · 0 评论 -
【计算机视觉】使用lbpcascade_frontalface.xml与 haarcascade_eye_tree_eyeglasses.xml配合进行人眼检测的c++程序
OpenCV 中有多种方法可以用来进行人眼检测,其中常用的有以下几种:Haar 特征分类器:使用训练好的 Haar 特征分类器来检测人眼。LBP 特征分类器:使用 LBP 特征分类器来检测人眼。HOG + SVM:使用 HOG 特征和 SVM 分类器来检测人眼。CNN 网络:使用卷积神经网络来训练检测模型。人脸检测+人脸关键点检测: 先使用人脸检测模型检测人脸,在使用人脸关键点检测模型检测人眼。原创 2023-01-28 15:04:30 · 860 阅读 · 0 评论 -
【onnx】将caffe模型导出的.caffemodel文件及.prototxt文件转onnx
caffemodel文件包含网络结构和参数的权值,而.prototxt文件则是网络结构的文本描述。参数说明:model_path:caffe模型所在的文件夹,文件夹里需要有对应的.caffemodel文件和.prototxt文件 model_type:模型类型,此处固定为caffe output:输出onnx模型的文件路径。caffe的.prototxt文件是用来定义网络结构的文件。.caffemodel文件是Caffe深度学习框架中训练好的模型的二进制文件。创建独立的环境,并激活shell。原创 2023-01-15 20:16:56 · 2396 阅读 · 0 评论 -
【CUDA】C++实现warpaffine仿射变换及其逆变换
此时的输入图片为d,待求i,遍历待求i的每一像素,根据i至d的映射关系找出i(即前向计算出矩阵的i2d);在调用compute函数后,输入i及d的尺寸,自动得到仿射变换矩阵i2d及d2i。这个例子中i尺寸为Size(550, 676),d的尺寸为(640,640)原创 2023-01-04 17:09:38 · 1704 阅读 · 0 评论 -
【centos】安装nvida CUDA平台附带安装cudnn库及TensorRT8
只要把cuDNN文件复制到CUDA的对应文件夹里就可以,即是所谓插入式设计,把cuDNN数据库添加CUDA里,cuDNN是CUDA的扩展计算库,不会对CUDA造成其他影响。CUDA是NVIDIA推出的用于自家GPU的并行计算框架,也就是说CUDA只能在NVIDIA的GPU上运行,而且只有当要解决的计算问题是可以大量并行计算的时候才能发挥CUDA的作用。CUDAToolkit:这是我们真正需要首先安装的工具包,所谓的装cuda首先指的是它。这里的11.6 指的是可驱动的最高版本。原创 2022-12-21 20:52:41 · 3338 阅读 · 1 评论 -
【centos】可执行程序链接的动态库so自动打包
ldconfig这个程序,位于/sbin下,它的作用是将文件/etc/ld.so.conf列出的路径下的库文件缓存到/etc/ld.so.cache以供使用,因此当安装完一些库文件,或者修改/etc/ld.so.conf增加了库的新的搜索路径,需要运行一下ldconfig.其中:表示并列,是在原有环境变量LD_LIBRARY_PATH的基础上追加新的路径。长期环境变量生效的方法是,将其写入/etc/profile文件内。也可将此变量添加至/etc/ld.so.conf内。原创 2022-12-21 16:01:39 · 339 阅读 · 0 评论 -
【opencv】centos下opencv的编译(带opencv_contrib扩展包)
在gitgub上下载opencv及其扩展包,注意,两者tag版本应对齐。将 opencv_contrib 文件夹移至 opencv 文件夹下。根据官网要求,输入cmake命令:这里使用-D对编译器进行设置。这里由于用的是vscode远程功能,所以直接传了。事先新建好opencvBuild文件夹。有些包找不到也能正常使用。cmake安装完成。原创 2022-12-20 20:18:34 · 1591 阅读 · 0 评论 -
【vscode】centos系统下配置centos容器,并启动内部的ssh服务,以便使用vscode进行远程开发
打开vs code设置,搜索Show Login Terminal,勾选下方"Always reveal the SSH login terminal",记得一定要操作这一步,不然会一直提示报错。2.安装插件之后,点击远程资源管理器,在SSH TARGETS配置远程服务器,具体步骤如下,其中Host是一个名称,自己可以随意命名。Hostname是远程服务器的IP,User。1.搜索并安装远程组件Remote Development。在左侧连接到远程服务器,按提示输入密码,进行操作即可。原创 2022-12-13 08:57:12 · 591 阅读 · 0 评论 -
【cmake】cmakeList.txt常用命令逐语句分析
6.//添加子文件夹的命令(能够适应生成多个exe的情况)原创 2022-12-08 19:27:53 · 804 阅读 · 0 评论 -
【向量的序列化及反序列化】std::string及std::vector<float>的交互
法2:该法中,中间序列化得到的std::string,不要与qstring交互,不然会出错。法1:转为字符串并用逗号分割,这里使用的是qt的库。原创 2022-11-29 17:51:21 · 730 阅读 · 0 评论 -
【计算机视觉】使用opencv中dnn模块及openvino2022进行模型推理(C++接口)
计算机内存float*是一个一维数组线性存储,故相互赋值需将mat及tensor的索引统一为线性索引:从头逐一连续赋值;这里使用的是onnx。原创 2022-11-29 14:49:33 · 1757 阅读 · 0 评论