自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1273)
  • 资源 (2)
  • 收藏
  • 关注

原创 高通 DSP 性能优化实战:运行时环境配置与初始化缓存技术

如果用户保存了此类 DLC 容器,则在后续的网络初始化过程中,将从 DLC 加载初始化缓存,从而缩短初始化时间。是 $SNPE_ROOT/lib/hexagon-v65/unsigned/libSnpeDspV65Skel.so 和/或其他 skel 文件的推送路径。假设适当的 DSP skel 已被推送到 /data/local/tmp/snpeexample/dsp/lib,则将使用以下命令设置 ADSP_LIBRARY_PATH。与 LD_LIBRARY_PATH 不同,路径必须包含在引号中。

2025-06-12 08:30:00 740

原创 高通 UDO 实战:带权重卷积操作全流程开发与 VGG 模型部署指南

此命令在 $SNPE_ROOT/examples/Models/VGG/ConvUdoCpu/Conv2DPackage 或 $SNPE_ROOT/examples/Models/VGG/ConvUdoDsp/Conv2DPackage 创建基于卷积的包。这将生成一个名为 vgg16_udo.dlc 的 DLC,其中包含位于 $SNPE_ROOT/examples/Models/VGG/dlc 的卷积作为 UDO。生成的包会创建操作实现的框架,用户必须填充该框架才能创建功能齐全的 UDO。

2025-06-11 08:30:00 1001

原创 高通 PSNPE 开发实战(2):C/C++ 多模式并行推理与性能优化指南

一个 PSNPE 实例包含一个或多个 SNPE 实例,这些实例具有三种可选的执行模式:同步、异步输出和异步输入/输出。此输入加载方法适用于同步模式和异步输出模式,与 高通神经处理 SDK 从用户支持的缓冲区创建输入和输出的方法类似。此输入加载方法用于同步模式和输出异步模式,类似于 高通神经处理 SDK 用于从用户支持的缓冲区创建输入和输出的方法。在输出异步模式下,加载输入数据是同步的,但执行 SNPE 实例并获取输出是异步的。输出异步模式中,加载输入数据和执行 PSNPE 与同步模式类似,但需要通过在。

2025-06-11 08:30:00 975

原创 高通 PSNPE 开发实战(1):Android Java API 集成与多模式推理指南

PSNPE Java API 以 Android 存档 (AAR) 文件的形式提供,应用程序开发者可将其作为应用程序的依赖项。$SNPE_ROOT/示例/SNPE/android/psnpe-demo/app/build/outputs/apk/debug。相同 ,但下面的代码摘录中显示的不同 Java API 用于在输出异步模式下执行神经网络。在输入/输出异步模式下,所有输入数据加载、神经网络传播和输出后处理都是异步处理的。下面的代码摘录显示了如何设置本机库和配置文件的路径。

2025-06-11 08:30:00 550

原创 高通神经处理 SDK 实战(5):量化 DLC 的 UDO DSP 实战

编辑文件 $SNPE_ROOT/examples/SNPE/android/image-classifiers/app/src/main/java/com/qualcomm/qti/snpe/imageclassifiers/tasks/LoadNetworkTask.java。量化 DLC 需要使用。这将生成一个名为 inception_v3_udo.dlc 的 DLC,其中包含位于 $SNPE_ROOT/examples/Models/InceptionV3/dlc 的 Softmax 作为 UDO。

2025-06-05 08:30:00 678

原创 高通神经处理 SDK 开发实战(5):基于Windows的开发

SNPE_ROOT/示例/SNPE/NativeCpp/SampleCode_CAPI/MemoryMappedUserBuffer。$SNPE_ROOT/示例/SNPE/NativeCpp/SampleCode_CAPI/Psnpe/OutputAsyncMode。$SNPE_ROOT/示例/SNPE/NativeCpp/SampleCode_CAPI/Psnpe/SyncMode。如果 SNPE_ROOT 不在系统环境变量中,则将 $SNPE_ROOT 替换为完整路径。

2025-06-04 08:30:00 775

原创 高通神经处理 SDK 开发实战(4): UDO开发

请确保您的 Hexagon SDK 的命名格式为“hexagon-sdk-<版本名称>”,并确保 Hexagon SDK 的工具目录路径格式为“hexagon-sdk-<版本名称>/tools/HEXAGON_Tools/<工具名称>/”。这将生成一个名为 inception_v3_udo.dlc 的 DLC,其中包含 Softmax 作为 $SNPE_ROOT/examples/Models/InceptionV3/dlc 中的 UDO。注册库将在 CPU 上运行,并指定 UDO 的 DSP 实现库。

2025-06-04 08:30:00 847 1

原创 高通神经处理 SDK 开发实战(3):基于Android开发应用

高通神经处理 SDK 和平台验证器 Java API 以 Android 档案 (AAR) 文件的形式提供,应用程序开发人员将其作为其应用程序的依赖项。所有应用程序将首先创建一个具有所需运行时的平台验证器对象,然后使用该对象调用如下所述的验证 API。应用程序中的无符号 PD 开关只能在模型加载时设置/取消设置一次。$SNPE_ROOT/示例/SNPE/android/图像分类器/应用程序/构建/输出/apk/调试。要构建此示例,请包含如上所述的高通神经处理 SDK AAR,并使用以下命令进行构建。

2025-05-29 08:30:00 757

原创 高通神经处理 SDK 开发实战(2): C++ API 从环境搭建到跨平台推理优化

数据类型值包括 zdl::DlSystem::IOBufferDataType_t::FLOATING_POINT_32、zdl::DlSystem::IOBufferDataType_t::FIXED_POINT_8 和 zdl::DlSystem::IOBufferDataType_t::FIXED_POINT_16。需要注意的是,$CXX 需要根据目标平台进行设置。请注意,输入值只是加载到用户支持的缓冲区中,高通神经处理SDK 可以在其上创建高通神经处理 SDK UserBuffers,如上所示。

2025-05-28 08:30:00 1029

原创 高通神经处理 SDK 开发实战(1):C API 从句柄管理到跨平台推理

由于 C API 采用基于句柄的方法,因此在转换 C++ API 时,需要将用于访问对象的句柄作为参数传递。在下面的代码片段中,Snpe_SNPEBuilder_Create 函数调用创建了一个 Snpe 构建器对象并返回一个句柄,用户可以使用该句柄来调用该构建器对象。请注意,输入值只是加载到用户支持的缓冲区中,高通神经处理SDK 可以在其上创建高通神经处理SDK UserBuffers,如上所示。用户创建并返回的句柄的生命周期需要由用户管理。当 API 返回不同类型的句柄时,该句柄的生命周期由用户管理。

2025-05-28 08:30:00 761

原创 高通神经处理 SDK 实战(4):VGG 模型部署与图像分类指南

从步骤2到步骤5,相当于运行“python3 $SNPE_ROOT/examples/Models/VGG/scripts/setup_VGG.py”此示例展示了如何使用 高通神经处理 SDK 运行 ONNX 模型。加载 DLC 文件,加载输入张量的数据,并在指定的运行时执行网络。此示例从 ONNX 框架导入预训练的 VGG 模型,并演示推理。设置 ONNX 环境,将 VGG-16 模型转换为 DLC。下载 ONNX 预训练的 VGG 模型并预处理输入图像。下载 ONNX 预训练的 VGG 模型。

2025-05-26 11:00:00 644

原创 高通神经处理 SDK 实战(3):Word-RNN 模型全流程部署与序列数据推理指南

以下是 aarch64-android(Android 平台)和 aarch64-oe-linux-gcc11.2 工具链(LE 平台)的示例。将 Qualcomm® Neural Processing SDK 库和预构建的 snpe-net-run 可执行文件推送到 Android 目标设备上的 /data/local/tmp/snpeexample。本章将展示一个简单的 Word-RNN 示例,该示例使用长短期记忆网络 (LSTM) 预测嵌入中的下一个单词。向量并送入 LSTM 模型。

2025-05-22 09:00:00 1473

原创 高通神经处理 SDK 实战(2):口语数字识别模型跨平台部署与实时推理指南

原始输出预测位于 $SNPE_ROOT/examples/Models/spoken_digit/output/Result_0/output/Result_0/Identity:0.raw。它包含 10 个类别的 10 个概率的输出张量数据。snpe-net-run 完成后,验证结果是否已填充到 $SNPE_ROOT/examples/Models/spoken_digit/output 目录中。可执行文件将创建结果文件夹:/data/local/tmp/spoken_digit/output。

2025-05-22 09:00:00 980

原创 高通神经处理 SDK 实战(1):Inception v3 模型跨平台部署与性能调优全记录

使用 AIP 运行时运行模型需要在脚本 $SNPE_ROOT/examples/Models/InceptionV3/scripts/setup_inceptionv3_snpe.py 中将 –runtime 参数设置为“aip”,以便将 HTA 特定的元数据打包到 AIP 运行时所需的 DLC 中。上面的 <input_files_dir> 映射到 $SNPE_ROOT/examples/Models/InceptionV3/data/cropped/ 之类的路径。以下是在主机和目标上分别执行的命令。

2025-05-21 08:30:00 1061

原创 高通神经处理SDK Windows 优化指南:Inception v3 模型推理与 DSP 加速实战记录

使用此输入,snpe-net-run 创建了输出文件 $SNPE_ROOT/examples/Models/InceptionV3/output/Result_0/InceptionV3/Predictions/Reshape_1_0.raw。请注意,输入列表不支持带空格的路径。如果您使用 $SNPE_ROOT/examples/Models/InceptionV3/scripts/create_file_list.py 生成输入列表,使用 -r 选项将允许使用相对路径而非绝对路径,这有助于解决这个问题。

2025-05-21 08:30:00 1695

原创 简述高通神经处理SDK输入图像格式数据和预处理

在某些框架(例如 Pytorch)中,图像可能呈现为形状为 的张量 ,其中宽度是变化最快的维度,其次是高度,然后是颜色通道。这意味着第一个颜色通道的所有像素值在内存中是连续的,然后是下一个颜色通道的所有像素值,依此类推。这意味着单个像素所有颜色通道的值在内存中是连续的,然后是下一个像素的所有颜色值,依此类推。Pytorch 和 高通神经处理 SDK 之间的示例输出保持不变:对于批次中的每张图像,包含每个类别的概率的一维张量。如果模型的批量维度大于 1,则各个输出张量将沿着批量维度连接在一起。

2025-05-15 08:30:00 355

原创 解锁高通 SDK 新技能:InceptionV3 模型转换与多运行时优化实战

脚本完成后,准​​备好的 Inception v3 资产将复制到 $SNPE_ROOT/examples/Models/InceptionV3 目录,同时还会复制示例原始图像以及转换后的高通神经处理SDK DLC 文件(并根据需要进行额外优化)。请注意,这些资源很大,下载可能需要一些时间。脚本完成后,准​​备好的 VGG 资产将复制到 $SNPE_ROOT/examples/Models/VGG 目录,同时还会复制示例原始图像以及转换后的高通神经处理 SDK DLC 文件(并根据需要进行额外优化)。

2025-05-15 08:30:00 774

原创 模型转换密码-1:TensorFlow 模型转换

而 TensorFlow 将神经网络定义为节点图,并将层定义为图中的一组节点。* 在 Windows PowerShell 中使用转换工具时,请确保已激活具有所需包的虚拟环境,并通过。以下命令将 Inception v3 TensorFlow 模型转换为。工具 可将冻结的 TensorFlow 模型或图形元文件转换为等效的。考虑到这一点,为了将 TensorFlow 图正确转换为。冻结的 TensorFlow 模型(pb 文件)或。SDK 通过将各种模型转换为与框架无关的。TensorFlow 模型转换。

2025-05-14 08:30:00 995

原创 模型转换密码-2:多种转换工具实践

然后,图形准备将在运行时完成(称为在线准备),从而拒绝 DLC 中的缓存 blob,在这种情况下,初始化时间会明显增加。如果用户在缓存准备期间将此输入的大小调整为 2x3x4x5,并在未将该输入的大小调整为 2x3x4x5 的情况下尝试后续运行推理,则此原本兼容的缓存记录将因输入尺寸不匹配而被拒绝。输入数据示例,而不使用训练集中的数据。对于同一个 DSP Arch,如果为一个 SoC 准备的缓存的 VTCM 小于或等于正在运行的 SoC 的 VTCM,则该缓存可以在另一个 SoC 上运行。

2025-05-14 08:30:00 875

原创 模型转换密码-3:从 MobilenetSSD 到 DeepLabv3 的技术突破

请注意,输入维度在转换过程中嵌入到 DLC 模型中,但在某些情况下,可以在 SNPE 对象创建/构建时通过 Snpe_SNPEBuilder_SetInputDimensions() 进行覆盖。使用高通神经处理SDK 运行 DeepLabv3 将生成一个尺寸为 513x513x1 的输出分割图,其中每个元素都是一个整数,代表一个类别(例如 0=背景等)。在高通神经处理SDK 转换之后,您应该有一个可以在高通神经处理SDK 运行时加载和运行的 mobilenet_ssd.dlc。

2025-05-14 08:30:00 853

原创 由浅入深了解高通平台UDO(3):编译UDO包

因此,开发 DSP 内核的用户可以预期操作中传入和传出 UINT_8、UINT_16 或 FLOAT_32 类型的激活张量,因此可以将配置文件中的 data_type 字段设置为这三种类型之一。因此,开发 DSP 内核的用户可以预期操作中输入和输出的激活张量是 UINT_8 还是 FLOAT_32,因此可以将配置文件中的字段 data_type 设置为这两种设置之一。与 CPU 运行时类似,要在 GPU 运行时上运行 UDO 包,需要基于核心 UDO API 的 GPU UDO 实现库。

2025-05-08 08:30:00 785

原创 由浅入深了解高通平台UDO(4):使用UDO

请注意,使用上述 API 向 高通 Neural Processing SDK 明确提供了注册库的绝对路径,而实现库可以存在于系统上应由库加载器发现的任何位置(在 Unix 系统上使用 LD_LIBRARY_PATH)。UDO 可以注册到进程中,并可供任何使用它们的高通神经处理 SDK 实例在进程的整个生命周期内使用。snpe-net-run 工具通过命令行选项 –udo_package_path 注册 UDO 注册库,该选项接受注册库的绝对路径。命令行工具与基于 UDO 的 DLC 的结合 使用。

2025-05-08 08:30:00 604

原创 由浅入深了解高通平台UDO(1):概述与定义UDO

这些操作可以是 TensorFlow 等常用训练框架中定义的操作,也可以是基于框架扩展构建的自定义操作,但 Qualcomm® 神经处理 SDK 中不提供。但是,提供的框架代码经过定制,每个包中只定义一个操作。张量的数据类型决定了张量中包含的数据在 DLC 中的存储方式,以及 Qualcomm® 神经处理 SDK 在运行时执行期间移交的内存类型。下一步将生成 UDO 包的组件,具体方法是创建 UDO 内核的源文件,并根据相应的工具链对其进行编译,从而生成特定于 GPU 和 DSP 等硬件内核的动态库。

2025-04-30 08:30:00 777

原创 由浅入深了解高通平台UDO(2):UDO包的定义与创建

包含目录包含三种文件:来自 Qualcomm® 神经处理 SDK UDO API 的头文件、特定于 UDO 包及其操作的头文件,以及一个包含 C++ 辅助实用程序的目录,该目录封装了 Qualcomm® 神经处理 SDK UDO API 调用。因此,虽然用户可以独立于此规范创建 UDO 包,但本节介绍了创建部分定义的 UDO 包的过程,该包可以轻松实现和编译以生成相关的库。同样,此文件包含一些方法,用于返回实现库中包含的操作的信息,以及一些方法,它们充当最终在每个操作文件中执行的代码之上的间接层。

2025-04-30 08:30:00 858

原创 解锁高通平台Ubuntu 机器人开发(1):创新工作流程揭秘

Ubuntu 机器人开发者工作流程利用了 Qualcomm® 智能机器人产品 (QIRP) SDK,其中包含一些组件,可让您使用 Ubuntu 操作系统在 Qualcomm 平台上开发机器人功能。此信息可帮助您准备好在 Qualcomm RB3 Gen 2 设备上运行 QIRP 示例应用程序所需的软件映像和依赖项。启用提供光学字符识别 (OCR) 功能的服务。它通过提供感知、规划、控制、定位、可视化等功能,构建高度可靠的自主系统。为了开发机器人系统中的应用程序,请在 RB3 Gen 2 设备和主机上安装。

2025-04-24 09:00:00 855

原创 解锁高通平台Ubuntu 机器人开发(2):QIRP SDK 示例应用实战指南-上

Realsense2-camera 是 realsense-ros ROS2 软件包,它是基于英特尔® RealSense TM SDK 2.0 的深度摄像头的英特尔® RealSense TM ROS 包装器。要使用这些示例,您必须拥有自己的移动机器人。rplidar-ros2 样本为 2D 激光扫描仪 RPLIDAR A1/A2/A3/S1/S2/S3 提供基本的设备处理。图中展示了 rplidar-ros2 示例的流水线,示例从 rplidar SDK 获取驱动数据,然后发布 /scan 主题。

2025-04-24 09:00:00 2032

原创 解锁高通平台Ubuntu 机器人开发(3):QIRP SDK 示例应用实战指南-下

图中显示了管道,它使用 sysfs 节点和一些系统标准命令工具收集系统信息,然后使用 ROS 消息发布这些数据。包含各种 ROS 节点来发布系统状态信息,例如 CPU 负载、内存利用率和磁盘空间。表: qrb-ros-system-monitor 管道中使用的 ROS 节点。表: qrb-ros-system-monitor 管道中使用的 ROS 主题。用例:构建并运行 qrb-ros-system-monitor。QRB-ROS-SYSTEM-MONITOR 的管道流程。QRB ROS 系统监视器。

2025-04-24 09:00:00 1471

原创 AI/ML 参考应用揭秘:RB3Gen2 设备上的创新实践与定制突破

下面概述开发人员修改现有示例时可以采取的步骤 应用程序来使用他们的自定义训练模型。使用经过定制训练的 YoloV8 model 为例。Qualcomm 开发套件需要使用参考应用程序源进行设置,并且 插件代码。示例 1 – 自定义训练的 YoloV8 LiteRT 模型Qualcomm IM SDK 参考应用程序使用 YoloV8 模型进行对象检测。在 在此示例中,我们将说明如何尝试自定义训练的 YoloV8 变体。使用以下步骤使用当前的 参考应用程序。在参考应用程序中将现有模型替换为新模型。

2025-04-23 09:00:00 1080

原创 高通 IM SDK 开发全景洞察:从基础搭建到高级定制的技术跨越

在 Qualcomm Development Kit 上下载 Qualcomm IM SDK 和参考应用程序源代码,并使用 cmake 等标准开发工具进行编译。在 Qualcomm Development Kit 上下载 Qualcomm IM SDK 和参考应用程序源代码,并使用 cmake 等标准开发工具进行编译。您必须在 Qualcomm 开发套件上下载 Qualcomm IM SDK 和参考应用程序源代码,并使用 cmake 等标准开发工具进行编译。如果成功,编译后的应用程序将加载更新的插件。

2025-04-23 09:00:00 645

原创 一文掌握!高通 AI Engine Direct SDK 多平台模型部署与验证全流程

在基于 Arm 的 CPU 上执行模型时, 需要模型 .so(对于 RB3Gen2 目标,必须交叉编译 .so 使用 aarch64-ubuntu-gcc9.4 工具链)、后端 .so 库和输入列表设置为 运行 Inference 以生成输出。Qualcomm AI Engine Direct SDK 提供 C/C++ API,以 创建/开发可以加载已编译的 .so 模型并在其上执行它的应用程序 选定的具有加速功能的后端(CPU、GPU 或 HTP)。在基于 Arm 的 CPU 上运行 QNN 模型。

2025-04-17 08:47:21 1257

原创 一文读懂!高通 AI Engine Direct SDK 从安装到模型部署全攻略

对于 AI Engine Direct (QNN) 中的量化 SDK 是来自训练数据集的 50 到 200 张图像的代表性数据集 作为校准数据集提供给 QNN 转换器。QNN SDK 提供离线工具,用于在 Qualcomm 硬件上加速转换、量化、优化和部署模型。为设备上编译模型时 执行,为此使用正确的交叉编译器工具链非常重要 架构来确保编译后的共享对象 (.so) 与 设备作系统。转换/量化步骤完成后,用于编译生成的 C++ graph 转换为共享对象 (.so),使模型能够由 应用程序执行推理。

2025-04-17 08:30:00 2350

原创 解锁高通神经处理引擎:SNPE 模型部署与输出验证

可以通过支持 SNPE 的应用程序(使用 SNPE C/C++ API 编写的应用程序)部署模型 DLC(量化或非量化)。(通过 input_list 文件),都会生成一个输出文件夹,其中包含保存为原始文件的输出张量,其大小将与模型的输出层匹配,如下图所示。SNPE SDK 提供 C/C++ API,用于创建/开发可在指定硬件(CPU、GPU 或 HTP)上加速运行模型的应用程序。工具(使用 C API 编写的应用程序),可以加载任意模型 DLC 并在提供的输入上执行它。在此示例中,输出保存到主机上的。

2025-04-16 20:30:00 757

原创 轻松上手高通神经处理引擎 SDK 安装与配置全攻略

Qualcomm 神经处理引擎(也称为骁龙神经处理引擎或 SNPE)是一款一体化 SDK,用于将机器学习模型移植到 Qualcomm 硬件加速器上运行。为了将在不同框架上训练的 ML 模型转换为 Qualcomm® Neural Processing SDK 可用的中间表示,您可能需要在主机上下载并安装相应的框架。在筛选结果中,点击“Qualcomm® AI Stack”旁边的箭头,展开可用的 AI 软件 SDK 列表,然后从列表中选择。直接下载 Qualcomm 神经处理引擎 SDK。

2025-04-16 20:00:00 694

原创 解锁高通 SNPE 潜力:模型移植与优化

该工具会根据 HTP 版本和芯片组 ID 创建一个缓存,其中包含在 HTP 硬件上执行模型 DLC 的执行策略。除了来自源框架的输入模型之外,转换器还需要有关输入模型的其他详细信息,例如输入节点名称、其对应的输入维度以及任何输出张量名称(对于具有多个输出的模型)。这些输入 .raw 文件的大小必须与模型的输入大小匹配。),可以使用其自己的量化算法将 DLC 模型量化为 INT8/INT16 DLC。) 中,以将模型转换为模型的 Qualcomm 特定中间表示,称为深度学习容器 (DLC)。

2025-04-16 20:00:00 704

原创 深入了解魔方派3配置工具 rubikpi_config

rubikpi_config 工具默认路径在,具备两种工作模式:菜单模式和命令行传参模式。

2025-04-10 08:40:21 933 1

原创 Yocto 工程助力魔方派 3 开发:编译镜像与 eSDK 的深度攻略

本章节介绍如何使用 yocto 工程编译出可以在魔方派3上烧录和运行的镜像。

2025-04-10 08:40:08 938

原创 深入了解魔方派3的接口(5):显示相关(HDMI OUT与DP)

HDMI CEC(Consumer Electronics Control,消费者电子控制)是 HDMI 标准中的一项功能,旨在通过单一的 HDMI 连接线实现多设备之间的互联与统一控制。具体来说,CEC 允许连接的设备通过专用的 CEC 引脚进行通信,从而实现例如通过一个遥控器控制多台设备的功能。我们也可以通过输出的 DSI 信息进行调试,DSI 指的是 Display Serial Interface(显示串行接口),通常与移动设备或嵌入式系统的显示驱动(如 MIPI DSI)相关。

2025-04-10 08:39:50 1076

原创 深入了解魔方派3的接口 (4):USB

在调试与进入/退出低功耗模式、SMMU 故障、无时钟访问相关的问题时,可通过上述日志查看事件和控制器状态的详细信息。以下是可用于验证 xHCI/gadget 协议栈/USB Type-C 连接器系统软件接口 (UCSI) 中的数据传输的跟踪。请运行以下命令,以便列出 USB 视频类 (UVC) gadget 驱动程序的可用事件。要列出 xHCI/主机控制器驱动程序 (HCD) 中的跟踪数据,请运行以下命令。要查看有关 USB 设备的详细信息,请运行以下命令。请运行以下命令,以便列出当前目录的内容。

2025-04-10 08:39:36 1067

原创 深入了解魔方派3的接口 (3):CSI

目前魔方派3已经兼容树莓派官方的三款摄像头。在官方演示中,IMX477 摄像头使用了 WS1053516 镜头。备注目前魔方派3暂时只支持标准版 Module 2 摄像头,不支持广角(Wide)、夜光(NoIR)版本。备注目前魔方派3暂时只支持标准版 Module 3 摄像头,不支持广角(Wide)、夜光(NoIR)版本。当前软件版本暂不支持 Module 3 摄像头的 AF 自动对焦功能。

2025-04-10 08:39:14 701

原创 深入了解魔方派3的接口 (2):SPI与UART

关于 WiringRP 详细信息可访问。魔方派3适配了 WiringRP(基于高性能 GPIO 编程库 WiringPi),推荐使用 WiringRP 来控制 SPI,和对 SPI 编程。下图是魔方派3 40-pin 连接器的引脚默认功能,其中大部分引脚和树梅派 40-pin 连接器引脚的默认功能兼容。下图是魔方派3 40-pin 连接器的引脚默认功能,其中大部分引脚和树梅派 40-pin 连接器引脚的默认功能兼容。WiringRP 库中提供了一系列的 API 函数,用更少的逻辑实现控制。

2025-04-02 13:36:14 1079

Hetcompute image processing example (1).docx

对基于Hetcompute的ImageProcessingDemo.cc的实现过程进行介绍,它实现了CPU、GPU、DSP分别对同一照片进行处理,并返回各个模块所需的时间和最终结果。

2019-07-31

Hetcompute image processing example (2).docx

对基于Hetcompute的ParallelTaskDependencyDemo.cc的实现过程进行介绍,它实现了CPU、GPU、DSP协同工作对同一照片进行处理,并返回所需时间和最终结果。

2019-07-31

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除