Jetson orin nano 边缘端适配Deepseek-R1

orin 平台最简单和快捷的布置deepseek方法

部分内容可参考Nvidia(Ollama - NVIDIA Jetson AI Lab)

https://www.jetson-ai-lab.com/tutorial_ollama.html

测试机器(中电港-Cecport):nvidia Jetson  Orin nano/nx ;AGX orin套件

软件版本:Jetpack 6.2 ,R36.4.3

最新Jetpack 6.2 支持super 工作模式,在测试前切换到super模式,可提高机器性能,体现模型token 输出结果流畅

先在ollama 官方查找下,ollama 上 deepseek-R1 版本,从1.5B ,7B-至671B 共7个版本

https://www.ollama.com/library/deepseek-r1

 两种安装方式可以实现:

1.  第一种方式在Ollama's 官方下载脚本安装,  安装快捷简单,虽然功能可以实现,但是显示终端和互操作性很不友好,

       curl -fsSL https://ollama.com/install.sh | sh

       ollama  run deepseek-r1:7b

  2. 采用英伟达官方提供的 docker 容器安装 ollma方式,配合open-webui 网页图形化界面操作显示。

    (1)先安装docker 

   参考官方链接   
Docker - NVIDIA Jetson AI Lab(https://www.jetson-ai-lab.com/tips_ssd-docker.html)

sudo apt update
sudo apt install -y nvidia-container curl
curl https://get.docker.com | sh && sudo systemctl --now enable docker
sudo nvidia-ctk runtime configure --runtime=docker

sudo systemctl restart docker
sudo usermod -aG docker $USER
newgrp docker

 sudo apt install -y jq
sudo jq '. + {"default-runtime": "nvidia"}' /etc/docker/daemon.json | \
  sudo tee /etc/docker/daemon.json.tmp && \
  sudo mv /etc/docker/daemon.json.tmp /etc/docker/daemon.json

 考虑后面下载过程中有错误问题,增加修改daemon.json

 cecport@ubuntu:~ cat /etc/docker/daemon.json
{
    "runtimes": {
        "nvidia": {
            "path": "nvidia-container-runtime",
            "runtimeArgs": []
        }
    },

   "default-runtime": "nvidia",
   "iptables": false,
  "registry-mirrors": ["https://docker.registry.cyou",

"https://docker-cf.registry.cyou",
"https://dockercf.jsdelivr.fyi",
"https://docker.jsdelivr.fyi",
"https://dockertest.jsdelivr.fyi",
"https://mirror.aliyuncs.com",
"https://dockerproxy.com",
"https://mirror.baidubce.com",
"https://docker.m.daocloud.io",
"https://docker.nju.edu.cn",
"https://docker.mirrors.sjtug.sjtu.edu.cn",
"https://docker.mirrors.ustc.edu.cn",
"https://mirror.iscas.ac.cn",
"https://docker.rainbond.cc"]

}

 sudo systemctl daemon-reload && sudo systemctl restart docker

(2)安装 jetson容器

git clone https://github.com/dusty-nv/jetson-containers
bash jetson-containers/install.sh

(3)在jetson 容器里面安装  运行ollama 和 下载 deekseek 7B模型

  # models cached under jetson-containers/data

     jetson-containers run --name ollama $(autotag ollama)

# models cached under your user's home directory

  docker run --runtime nvidia --rm --network=host -v ~/ollama:/ollama -e OLLAMA_MODELS=/ollama dustynv/ollama:r36.4.0

 jetson-containers run --name ollama $(autotag ollama)

 ollama run deepseek-r1:7B

(4) 运行 OPEN webui

docker run --network=host \
  -v ${HOME}/open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
  -e ENABLE_OPENAI_API=False \
  -e ENABLE_OLLAMA_API=True \
  -e HF_ENDPOINT=https://hf-mirror.com \
    --name open-webui \
    --restart always \
    ghcr.io/open-webui/open-webui:main

(5)通过浏览器访问  http://JETSON_IP:8080  进入web UI界面操作 注意 open webui账号和登陆注意账号和密码设置后需要记住,免得后面登陆失败,

   测试输出结果,结果不是很满意,还能满

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值