手机部署模型

部署运行你感兴趣的模型镜像

1.安装termux

Releases · termux/termux-app · GitHub

termux-app_v0.119.0-beta.1+apt-android-7-github-debug_arm64-v8a.apk

2.安装ollama 依赖

pkg install git cmake golang
git clone --depth 1 https://github.com/ollama/ollama.git

如果出错找不到库 运行pkg upgrade

3. cd ollama

4. generate

go generate ./

5. build

go build .

6.启动ollama服务

./ollama serve

7.新建 termux session 运行deepseek 模型

./ollama run deepseek-r1:1.5b

8.使用15亿参数 高通骁龙888 CPU占用率600%

CPU

9. 浏览器查看ollama状态

10. 安装火狐page assist插件

11. 选择模型

12.使用page assist

 

 

 

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

在安卓设备上部署大型机器学习模型面临多个挑战,包括设备的计算能力限制、内存容量以及电池续航等问题。然而,通过一些优化和工具支持,可以实现高效的模型部署。 ### 使用 TensorFlow Lite 进行模型优化 TensorFlow Lite 是 Google 推出的一个轻量级解决方案,专门用于在移动设备和嵌入式设备上运行机器学习模型。它提供了一个转换器工具,可以将标准的 TensorFlow 模型转换为适用于移动设备的格式,并且支持多种优化策略以减少模型大小并提高推理速度 [^2]。 例如,可以使用以下代码片段来加载一个 TensorFlow Lite 模型并进行推理: ```python import numpy as np import tflite_runtime.interpreter as tflite # 加载 TFLite 模型 interpreter = tflite.Interpreter(model_path="model.tflite") interpreter.allocate_tensors() # 获取输入输出张量 input_details = interpreter.get_input_details() output_details = interpreter.get_output_details() # 创建输入数据 input_shape = input_details[0]['shape'] input_data = np.array(np.random.random_sample(input_shape), dtype=np.float32) # 设置输入张量 interpreter.set_tensor(input_details[0]['index'], input_data) # 执行推理 interpreter.invoke() # 获取输出结果 output_data = interpreter.get_tensor(output_details[0]['index']) print(output_data) ``` ### 利用云边协同训练与推理 为了减轻本地设备的压力,可以采用云端协同的方式来进行模型训练和部分推理任务。Pitaya 平台就采用了 MLX Notebook(字节跳动提供的设备-云协同 Notebook 服务),提供了集成的 JupyterLab 环境,以便于在设备上训练 AI 模型 [^3]。这种方式允许用户在云端处理复杂的计算任务,而仅将必要的模型推送到设备端执行。 ### 模型压缩与量化 对于大型模型来说,可以通过模型压缩技术如剪枝、量化等手段来减小模型体积,同时保持较高的准确率。TensorFlow Lite 支持量化感知训练(Quantization-Aware Training, QAT)以及后训练量化(Post-training Quantization),这些方法可以在不显著影响模型性能的前提下大幅降低模型复杂度 [^2]。 ### 分布式推理与边缘计算 如果单一设备无法承载整个模型,则可以考虑分布式推理架构,即将模型拆分成多个部分分别部署到不同的设备或服务器上,或者利用边缘计算节点来辅助完成计算密集型的任务。 ### 相关问题 1. 如何在 Android 应用中集成 TensorFlow Lite 模型? 2. 哪些是适合移动端使用的机器学习框架? 3. 如何对深度学习模型进行量化处理以适应移动端需求? 4. 边缘计算如何帮助提升移动端机器学习应用的表现? 以上措施可以帮助开发者克服在 Android 设备上部署大型机器学习模型时遇到的技术难题,并确保应用程序能够高效稳定地运行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值