
Android
深度模型在Android端的部署
CabbageWust
这个作者很懒,什么都没留下…
展开
-
使用MNN在Android上部署mnist模型
本文使用JNI技术在Android平台部署深度学习模型,并使用MNN框架进行模型推理。模型及C++程序准备mnist-mnnAndroid环境配置打开Android studio, 创建一个Native C++工程,并配置OpenCV。在Android中使用OpenCV在PC上编译MNN-Android的动态链接库MNN安装和编译CMakeLists.txt编写在jni中编译C/C++程序有两种方法:一是使用ndk-build(需要配置.mk文件),二是使用CMake,本文使用原创 2020-08-19 22:56:25 · 6104 阅读 · 7 评论 -
MNN介绍、安装和编译
MNN是一个轻量级的深度神经网络推理引擎,在端侧加载深度神经网络模型进行推理预测。目前,MNN已经在阿里巴巴的手机淘宝、手机天猫、优酷等20多个App中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景。此外,IoT等场景下也有若干应用。整体特点轻量性• 针对端侧设备特点深度定制和裁剪,无任何依赖,可以方便地部署到移动设备和各种嵌入式设备中。• iOS平台:armv7+arm64静态库大小5MB左右,链接生成可执行文件增加大小620KB左右,metallib文件600原创 2020-08-17 23:55:32 · 12785 阅读 · 0 评论 -
使用MNN进行模型推理(ubuntu)
MNN是阿里开源的针对模型在移动端部署的框架,在模型移植的前期,我们往往需要经历代码调试的过程,而这个过程在PC端进行会比较方便。本文记录在ubuntu上MNN的运行环境配置,以及使用MNN进行推理的主要步骤。本文所用模型为一个mnist模型,模型由TensorFlow训练,并转化为.mnn模型,推理程序主要依赖OpenCV和MNN两个库。环境配置如果你习惯于使用QT,可以参考以下内容编写.pro文件进行qmake:CONFIG += c++11TARGET = mnistCONFIG +原创 2020-08-17 23:33:02 · 4853 阅读 · 1 评论 -
Android工程中配置OpenCV
本文记录在Android studio中配置OpenCV,并利用其进行简单的图像处理,将结果图像显示出来,主要用到JNI技术。环境安装安装Android相关环境各个系统下安装都是大同小异,安装jdk,sdk,ndk,AS,可以参考以下博客:安装Android StudioUbuntu: Ubuntu18.04安装Android StudioWindows:Windows安装Android StudioMac:Mac 安装Android Studio下载opencv的安卓包到open原创 2020-08-11 17:03:36 · 1147 阅读 · 0 评论 -
JAVA中的JNI技术简介
JNI是Java Native Interface的缩写,通过使用 Java本地接口书写程序,可以确保代码在不同的平台上方便移植。 [1] 从Java1.1开始,JNI标准成为java平台的一部分,它允许Java代码和其他语言写的代码进行交互。JNI一开始是为了本地已编译语言,尤其是C和C++而设计的,但是它并不妨碍你使用其他编程语言,只要调用约定受支持就可以了。使用java与本地已编译的代码交互,通常会丧失平台可移植性。但是,有些情况下这样做是可以接受的,甚至是必须的。例如,使用一些旧的库,与硬件、操作原创 2020-08-10 23:39:25 · 1178 阅读 · 0 评论