Jetson orin nano 边缘端适配Deepseek-R1

部署运行你感兴趣的模型镜像

orin 平台最简单和快捷的布置deepseek方法

部分内容可参考Nvidia(Ollama - NVIDIA Jetson AI Lab)

https://www.jetson-ai-lab.com/tutorial_ollama.html

测试机器(中电港-Cecport):nvidia Jetson  Orin nano/nx ;AGX orin套件

软件版本:Jetpack 6.2 ,R36.4.3

最新Jetpack 6.2 支持super 工作模式,在测试前切换到super模式,可提高机器性能,体现模型token 输出结果流畅

先在ollama 官方查找下,ollama 上 deepseek-R1 版本,从1.5B ,7B-至671B 共7个版本

https://www.ollama.com/library/deepseek-r1

 两种安装方式可以实现:

1.  第一种方式在Ollama's 官方下载脚本安装,  安装快捷简单,虽然功能可以实现,但是显示终端和互操作性很不友好,

       curl -fsSL https://ollama.com/install.sh | sh

       ollama  run deepseek-r1:7b

  2. 采用英伟达官方提供的 docker 容器安装 ollma方式,配合open-webui 网页图形化界面操作显示。

    (1)先安装docker 

   参考官方链接   
Docker - NVIDIA Jetson AI Lab(https://www.jetson-ai-lab.com/tips_ssd-docker.html)

sudo apt update
sudo apt install -y nvidia-container curl
curl https://get.docker.com | sh && sudo systemctl --now enable docker
sudo nvidia-ctk runtime configure --runtime=docker

sudo systemctl restart docker
sudo usermod -aG docker $USER
newgrp docker

 sudo apt install -y jq
sudo jq '. + {"default-runtime": "nvidia"}' /etc/docker/daemon.json | \
  sudo tee /etc/docker/daemon.json.tmp && \
  sudo mv /etc/docker/daemon.json.tmp /etc/docker/daemon.json

 考虑后面下载过程中有错误问题,增加修改daemon.json

 cecport@ubuntu:~ cat /etc/docker/daemon.json
{
    "runtimes": {
        "nvidia": {
            "path": "nvidia-container-runtime",
            "runtimeArgs": []
        }
    },

   "default-runtime": "nvidia",
   "iptables": false,
  "registry-mirrors": ["https://docker.registry.cyou",

"https://docker-cf.registry.cyou",
"https://dockercf.jsdelivr.fyi",
"https://docker.jsdelivr.fyi",
"https://dockertest.jsdelivr.fyi",
"https://mirror.aliyuncs.com",
"https://dockerproxy.com",
"https://mirror.baidubce.com",
"https://docker.m.daocloud.io",
"https://docker.nju.edu.cn",
"https://docker.mirrors.sjtug.sjtu.edu.cn",
"https://docker.mirrors.ustc.edu.cn",
"https://mirror.iscas.ac.cn",
"https://docker.rainbond.cc"]

}

 sudo systemctl daemon-reload && sudo systemctl restart docker

(2)安装 jetson容器

git clone https://github.com/dusty-nv/jetson-containers
bash jetson-containers/install.sh

(3)在jetson 容器里面安装  运行ollama 和 下载 deekseek 7B模型

  # models cached under jetson-containers/data

     jetson-containers run --name ollama $(autotag ollama)

# models cached under your user's home directory

  docker run --runtime nvidia --rm --network=host -v ~/ollama:/ollama -e OLLAMA_MODELS=/ollama dustynv/ollama:r36.4.0

 jetson-containers run --name ollama $(autotag ollama)

 ollama run deepseek-r1:7B

(4) 运行 OPEN webui

docker run --network=host \
  -v ${HOME}/open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
  -e ENABLE_OPENAI_API=False \
  -e ENABLE_OLLAMA_API=True \
  -e HF_ENDPOINT=https://hf-mirror.com \
    --name open-webui \
    --restart always \
    ghcr.io/open-webui/open-webui:main

(5)通过浏览器访问  http://JETSON_IP:8080  进入web UI界面操作 注意 open webui账号和登陆注意账号和密码设置后需要记住,免得后面登陆失败,

   测试输出结果,结果不是很满意,还能满

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

4.1.2 混合云架构 DeepSeek R1(1.5B)本地化部署+联合专家模型云部署的混合云架构,使得在本地即使在没有网络的情况下也可以调用DeepSeek R1(1.5B)本地化部署Jetson Orin Nano 4GB 的主控上。在 NVIDIA Jetson Orin 系列设备上部署 DeepSeek 模型时,硬件配置对可部署模型的参数量有直接影响Jetson Orin Nano 4GB运行1.5b大模型时相对流畅。 与传统单一云大模型部署或者单一本地化部署相比线上和线下相结合存在许多优势,云部署大模型依靠庞大参数规模以及海量数据训练能提供通用智能服务,它可借助先进多模态分析技术深入剖析用户语气、表情,同时联合知识图谱与教育心理学原理为用户提供针对性鼓励性学习建议帮助其调整学习策略。大模型以及强大个性化定制能力,经对用户学习历史、兴趣爱好和个性特点深入挖掘分析,能为不同用户定制个性化学习内容与交互方式契合多样化学习需求。 本地化部署侧,恰似灵活敏捷的 “智能助手”,能够快速捕捉个性化场景数据。它针对特定任务进行了高度优化,在处理诸如查询单词释义、进行简单计算等轻量级任务时,能够毫秒级完成响应。 调用“白泽”大模型DeepSeek-V3的模型时,是通过联网的方式进行自然语言交互,而联网的载体则是ESP32-S3的开发板。借助联网手段实现与“白泽”大模型DeepSeek-V3模型的自然语言交互,而ESP32-S3开发板则充当了这一联网交互的关键载体。混合云架构的流畅运行也离不开HEDRA动态决策,这个决策对于调用本地还是云DeepSeek V3 还是“白泽”具有任务决策和分配的功用。 从技术融合层面分析混合云架构的优势,此混合云架构达成了本地化硬件部署同云资源的有效整合,突破了传统单一部署模式的限制,它有效运用了 Jetson Orin Nano 4GB 等本地设备的计算能力,又借助云强大算力以及丰富的模型资源,构建出一个层次清晰、功能互补的技术生态。 在协同创新领域,DeepSeek R1 (1.5B) 与云联合专家模型相互协作,可推动知识与数据实现双向流动,本地模型于处理数据进程中所积累的经验以及达成的优化成果,可反馈至云模型,对其优化形成帮助,云模型持续更新的知识体系以及先进算法,借助联网交互可为本地模型赋予能量,如此便形成了一种良性循环,促使整个AI系统持续进化升级,为用户带来不断优化的智能体验。
07-15
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值