高通平台边缘端部署(实践)
文章平均质量分 84
针对高通平台边缘端部署
浩瀚之水_csdn
路漫漫其修远兮,吾将上下而求索,立刻行动,坚持,努立
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
DlSystem::IBufferAttributes详解
getDims()原创 2025-10-25 13:07:18 · 55 阅读 · 0 评论 -
zdl::DlSystem::TensorShape深度解析
作为 SNPE 张量的维度信息载体跨平台维度表示:统一硬件布局差异动态模型支持:运行时调整批大小/分辨率元数据集成:数据类型与布局的统一管理操作准则1. 静态模型:提前固化形状避免修改2. 动态模型:在可变维度范围内动态调整3. 硬件适配:convertLayout() 优化内存访问4. 批量处理:仅修改批大小维度(索引0)性能关键布局转换优先在模型加载时完成高度复用 TensorShape 对象对齐计算减少内存碎片通过合理使用。原创 2025-10-24 08:16:03 · 41 阅读 · 0 评论 -
snpe->getOutputTensorNamesByLayerName详解
对特定层的输出进行特殊处理(如对分割模型的中间层结果进行插值优化)。原创 2025-10-22 08:08:12 · 145 阅读 · 0 评论 -
SNPEBuilder::setUseUserSuppliedBuffers 深度解析
启用条件高性能场景(>100FPS)内存受限设备已有优化内存布局(如相机YUV数据)开发流程性能监控指标内存拷贝耗时占比内存分配/释放次数内存碎片率生产环境检查清单内存尺寸匹配模型要求缓冲区生命周期管理多线程同步机制异常处理(内存不足等)终极建议:在移动端视频处理等高性能场景中,合理使用用户缓冲模式可提升 2-3 倍吞吐量,但需严格测试内存边界条件和多线程安全性。原创 2025-10-17 08:10:46 · 175 阅读 · 0 评论 -
SNPE(Snapdragon Neural Processing Engine)详解
SNPE(高通骁龙神经网络引擎)是高通专为骁龙平台开发的AI推理SDK,支持将训练好的模型高效部署到移动设备。其核心优势在于利用CPU、GPU和DSP/NPU的异构计算架构,通过智能调度、算子融合和INT8量化技术,实现低延迟、低功耗的AI推理。典型应用场景包括手机AI拍照、自动驾驶和物联网设备等。开发流程包含模型转换、量化和部署三个关键步骤,但需注意算子兼容性和平台依赖性。SNPE通过软硬件协同优化,展现了终端侧AI的高效能发展方向。原创 2025-10-12 08:47:15 · 215 阅读 · 0 评论 -
算能 TPU、高通 DSP、英伟达 GPU、RK NPU、XILINX DPU 在 AI 应用中的核心区别
TPU是谷歌推动AI算力边界的关键技术,尤其适合需要极致性能与能效的大规模模型场景。开发者需根据框架兼容性、模型规模及成本权衡选择TPU或GPU方案。原创 2025-04-03 09:09:55 · 567 阅读 · 0 评论 -
NDK之Android NDK
Android NDK(Native Development Kit)是Android的一个原生开发工具集,它允许开发者使用C和C++等编程语言来编写Android应用程序或游戏的部分代码。原创 2024-11-03 18:42:58 · 1335 阅读 · 0 评论 -
NDK之hello world
在不使用Android Studio的情况下,你可以通过NDK(Native Development Kit)直接在命令行中编译和运行一个简单的“Hello, World!” C/C++程序。以下是一个基本的步骤指南,假设你已经安装了NDK并且设置好了环境变量。原创 2024-11-03 20:04:00 · 779 阅读 · 0 评论
分享