
神经处理引擎
文章平均质量分 91
weixin_38498942
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
骁龙神经处理引擎SDK参考指南(35)
虽然这通常不会影响用于分类的网络的 mAP,但它可能会溢出/下溢,从而影响引擎用于分类以外的用途。示例:snpe-dlc-info 显示来自 Caffe 的 CMRN 层的 alpha 为 2e-05,window_size 为 5,alpha 为 0.0001。在加载任何网络时,GPU 运行时可能会选择将几个层与网络中的先前层合并(压缩),具体取决于层的兼容性。- 对于 CMRN 层,显示的 alpha 值实际上是从 Caffe 转换的模型的 alpha/window_size。批量归一化(+ 缩放)原创 2023-06-28 18:26:48 · 384 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(34)
snpe-quantization-checker工具用于分析单个模型文件或模型目录的每个后续层的 snpe 转换器中可用的所有可能量化选项的激活、权重和偏差。该工具生成一个html目录,其中包含所有 .html 文件,其中包含量化选项和输入文件的不同组合的失败和成功的明确指示符。data_range_analyzer:计算张量中最大值和最小值之间的差,并将其与位宽支持的最大值进行比较,以确定所选量化位宽是否可以合理地表示值的范围。sqnr:计算未量化和反量化数据的两个张量之间的信号与量化噪声比。原创 2023-06-28 18:06:56 · 279 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(33)
snpe-throughput-net-run 在一段时间内同时运行多个 SNPE 实例并测量推理吞吐量。SNPE 的每个实例都可以有自己的模型、指定的运行时和性能配置文件。请注意,“–duration”参数对于创建的 SNPE 的所有实例都是通用的。snpe-pytorch-to-dlc 将序列化的 PyTorch 模型转换为 SNPE DLC 文件。有关更多信息,请参阅PyTorch 模型转换。原创 2023-06-28 17:53:37 · 917 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(32)
snpe-tensorflow-to-dlc 将 TensorFlow 模型转换为 SNPE DLC 文件。snpe-tflite-to-dlc 将 TFLite 模型转换为 SNPE DLC 文件。snpe-onnx-to-dlc 将序列化的 ONNX 模型转换为 SNPE DLC 文件。使用此脚本的示例可以在将模型从 TensorFlow 转换为 SNPE 中找到。使用此脚本的示例可以在将模型从 TFLite 转换为 SNPE 中找到。有关更多信息,请参阅ONNX 模型转换。原创 2023-06-28 17:44:52 · 623 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(31)
如果运行使用输入张量的输入列表,则 snpe-diagview 报告的计时信息是整个输入集的平均值。snpe-dlc-graph-prepare 用于对量化 dlc 执行离线图形准备,以在 DSP/HTP 运行时上运行。**注意:**输出张量和层可以单独指定,但是在指定两者时,必须使用显示的顺序来指定每个张量和层。**注意:**输出张量和层可以单独指定,但是在指定两者时,必须使用显示的顺序来指定每个张量和层。snpe-dlc-info 从 DLC 文件输出层信息,该文件提供有关网络模型的信息。原创 2023-06-28 17:43:45 · 975 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(30)
snpe-parallel-run 加载 DLC 文件,加载输入张量的数据,并在指定的运行时执行网络。如果模型的批次维度大于 1,则输入文件中的批次元素数量必须与 DLC 中指定的批次维度匹配,或者必须为 1。这是一个示例,其中层名称为“Input_1”和“Input_2”,输入位于路径“Placeholder_1/real_input_inputs_1/”中。根据我们的测量,每个芯片组的准确度分数没有变化。snpe-net-run 加载 DLC 文件,加载输入张量的数据,并在指定的运行时执行网络。原创 2023-06-25 18:13:56 · 831 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(29)
概述SNPE SDK 中提供的基准测试由一组 Python 脚本组成,这些脚本在目标 Android/LinuxEmbedded 设备上运行网络并收集性能指标。它使用 SDK 包中的可执行文件和库在目标上运行 DLC 文件,使用一组网络输入以及指向该组输入的文件。基准测试脚本的输入是 JSON 格式的配置文件。SDK 附带一个配置文件,用于运行在 SNPE SDK 中创建的 AlexNet 模型。鼓励 SDK 用户创建自己的配置文件并使用基准脚本在目标上运行以收集时序和内存消耗测量结果。原创 2023-06-25 18:09:48 · 425 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(28)
在网络执行期间可以在 SNPE 中启用日志记录。强烈建议在程序开始时启用一次日志记录,以捕获所有进程的日志。启用日志记录可能会对性能产生影响。原创 2023-06-25 18:08:27 · 646 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(27)
本教程介绍了在 DSP 上运行具有 D32 数据格式的 UDO 并使用该包执行 Alexnet 模型所需的步骤。本教程选择卷积运算来演示 UDO 的实现。D32 是 Depth-32 的缩写,是一种内部创建的矢量友好数据格式,用于高效的 DSP 操作。SNPE SDK 在以下位置提供了此示例的资源。原创 2023-06-25 18:06:46 · 794 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(26)
本教程介绍了使用权重运行 UDO 并使用该包执行 Alexnet 模型所需的步骤。本教程选择卷积运算来演示带权重的 UDO 的实现。SNPE SDK 在以下位置提供了此示例的资源。原创 2023-06-25 18:03:07 · 285 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(2)
虽然某些 TF 1.x 模型可能会使用 Tensorflow 2.3 作为转换框架成功转换,但通常建议使用与训练模型相同的 TF 版本进行转换。在 Android 上构建本机 C++ 示例(构建您的第一个 SNPE 本机应用程序)需要安装 Android NDK,并按照以下命令导出 ANDROID_NDK_ROOT。如果 SNPE SDK 将与 TensorFlow 一起使用,则需要安装 TensorFlow。上的说明在 Ubuntu Linux 上安装 ONNX,然后继续SNPE 设置的其余部分。原创 2023-05-18 11:30:59 · 660 阅读 · 0 评论 -
骁龙神经处理引擎SDK 参考指南(1)
本文档提供了 Snapdragon TM神经处理引擎 (SNPE) 软件开发套件 (SDK) 用户指南和 API 参考指南。Snapdragon 神经处理引擎 (SNPE) 是用于执行深度神经网络的 Qualcomm Snapdragon 软件加速运行时。执行任意深度的神经网络在 Snapdragon TM CPU、Adreno TM GPU 或 Hexagon TM DSP上执行网络。在 x86 Ubuntu Linux 上调试网络执行。原创 2023-05-18 11:26:54 · 883 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(25)
本教程介绍了为 DSP 运行时创建 UDO 包并使用该包执行 Inception-V3 模型所需的步骤。本教程中选择了 Softmax 操作来演示使用 SNPE 实现 UDO。本教程还介绍了 DSP V68 的离线缓存生成步骤。SNPE SDK 为这个例子提供资源。原创 2023-06-15 11:13:03 · 862 阅读 · 1 评论 -
骁龙神经处理引擎SDK参考指南(24)
本教程描述了创建 UDO 包和使用该包执行 Inception-V3 模型所需的步骤。本教程中选择了 Softmax 操作来演示使用 SNPE 实现 UDO。SNPE SDK 为这个例子提供资源。原创 2023-06-15 10:50:29 · 1211 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(23)
本教程介绍了在 Android 应用程序中集成 SNPE 和snpe-platform-validator Java API的过程。SNPE 和平台验证器 Java API 作为 Android 存档 (AAR) 文件提供,应用程序开发人员将其作为其应用程序的依赖项包含在内。原创 2023-06-15 10:51:06 · 668 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(22)
本教程演示如何构建可在 PC 或目标设备上执行神经网络模型的 C 示例应用程序。原创 2023-06-15 10:49:53 · 376 阅读 · 0 评论 -
骁龙神经处理引擎SDK参考指南(21)
本教程演示如何构建可在 PC 或目标设备上执行神经网络模型的 C++ 示例应用程序。原创 2023-06-15 10:44:46 · 1056 阅读 · 1 评论