望获实时Linux系统运行DeepSeek R1大模型,成本低至千元内!

这个春节,科技界热闹非凡,DeepSeek的横空出世犹如一颗重磅炸弹,迅速引爆全球AI市场。

图片

DeepSeek凭借其V3和新推出的R1两款模型,实现了与OpenAI 4o和o1比肩的性能,同时成本仅为十分之一,为AI技术的普及提供了经济高效的解决方案。DeepSeek的崛起,不仅标志着中国AI技术的突破,更预示着全球AI市场将迎来一场新革命。

将其部署在望获实时Linux与瑞芯微RK3588平台上,能够充分释放其在边缘计算和工业控制领域的巨大潜力,为智能化转型提供强有力的技术支撑。

图片

以下是详细的部署步骤,帮助您快速实现这一国产技术组合的落地应用。

【望获实时Linux+NanoPC-T6】DeepSeek R1大模型部署-千元以内的国产解决方案

硬件准备:

  • RK3588开发板:京博航友善NanoPC-T6(预装望获实时Linux)

  • 工作主机:ubuntu笔记本电脑

软件准备:

  • 瑞芯微rkllm-toolkit工具

部署步骤

一、拉取模型

从Hugging Face拉取DeepSeek-R1的1.5B蒸馏模型到x86平台:

图片

二、配置模型转换脚本

在rknn-llm/rkllm-toolkit/examples/test.py中,修改如下内容:

图片

三、模型转换

执行模型转换脚本,等待转换完成:

图片

四、部署模型

使用scp命令将转换得到的DeepSeek-R1-Distill-Qwen-1.5B.rkllm文件拷贝到RK3588平台:

图片

五、生成运行文件

在RK3588平台,进入rknn-llm/rkllm-runtime/examples/rkllm_api_demo目录,生成llm_demo运行文件:

图片

六、运行模型

运行llm_demo,并指定DeepSeek-R1-Distill-Qwen-1.5B.rkllm的路径。

图片

七、对话测试

在user : 后输入对话内容,测试模型的运行效果。

图片

图片

图片

通过将DeepSeek部署在望获实时Linux与RK3588的平台上,您可以轻松实现边缘智能的高效落地。这一技术组合提升了工业控制与边缘计算的智能化水平,为未来的工业应用开辟了新的可能性。如果您在部署过程中遇到任何问题,欢迎随时与我们联系!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值