在ubuntu上安装一个LoRaServer

本文详细介绍了LoRaWAN技术,并提供了在Ubuntu环境中安装LoRaServer的具体步骤,包括使用Docker进行部署,以及如何验证本地和局域网访问。
部署运行你感兴趣的模型镜像

在ubuntu上安装一个LoRaServer

一、 关于LoRaWAN

LoRaWAN是基于LoRa芯片、由LoRaWAN联盟定义的一套标准通信协议,如下图,分了四个部分组成:End Nodes、Gateway、Network Server、Application Server;而 Network Server、Application Server可以统称呼LoRaServer
在这里插入图片描述

二、安装LoRaServer的步骤

  1. 安装虚拟机、Ubuntu

  2. 在Ubuntu里面安装Docker、需要用docker –help验证,出现一大串命令就是成功(如没安装、建议按系统提示、直接install的方式)

  3. 在适当的地方新建一个lora文件夹、进去之后执行

    git clone https://github.com/brocaar/loraserver-docker.git
    
     我的方式是获取管理员权限后,直接在根目录下操作
    
    	```
    	cd  /
    	mkdir lora
    	cd lora
    	git clone https://github.com/brocaar/loraserver-docker.git
    	```
    
  4. 下载完成后,ls一下就发现有一个的文件夹:【 loraserver-docker】

  5. 进去 loraserver-docker之后,执行docker-compose up

    cd   loraserver-docker
    docker-compose up
    
  6. 等待下载完成,开启成功得页面如下
    在这里插入图片描述
    验证本机访问LoRaServer

  7. ubuntu新开终端执行ifconfig,执行

    ifconfig
    

在这里插入图片描述
找到自己的ip地址,再浏览器输入192.168.xxx.xxx:8080就可以进入LoRaServer的登陆界面,初始密码和账号都是admin
验证局域网访问LoRaServer
局域网内访问还需要进行ip对应,使用桥接方式

在这里插入图片描述
设置好重启虚拟机,就能被局域网内的访问,换句话意思就是网关能通过相同WiFi访问这个loraserver

  1. 提示,页面死了可以用ctrl+c关闭重启开始,或者使用 docker- compose up –d

您可能感兴趣的与本文相关的镜像

Wan2.2-T2V-A5B

Wan2.2-T2V-A5B

文生视频
Wan2.2

Wan2.2是由通义万相开源高效文本到视频生成模型,是有​50亿参数的轻量级视频生成模型,专为快速内容创作优化。支持480P视频生成,具备优秀的时序连贯性和运动推理能力

Ubuntu 系统上使用 vLLM 进行大模型推理任务,可以显著提升推理效率并简化部署流程。vLLM 是一个高效的大语言模型推理框架,支持多种主流模型,并通过优化技术如 PagedAttention、动态批量推理(Continuous Batching)和模型量化等提升了推理性能[^2]。 ### 安装与配置 #### 1. 环境准备 确保系统满足以下要求: - **操作系统**:Ubuntu 24.04 或更高版本 - **Python 版本**:3.9 及以上(推荐使用 Python 3.12) - **GPU 支持**:CUDA 或 RoCm 兼容的 GPU 设备 - **内存要求**:7B 模型建议至少 16GB RAM[^1] #### 2. 安装 UV 包管理器 UV 是一个快速的 Python 包管理工具,可以加速依赖安装过程。安装命令如下: ```bash curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh cargo install uv ``` #### 3. 安装 vLLM 使用 `uv` 或 `pip` 安装 vLLM: ```bash uv pip install vllm # 或者 pip install vllm ``` #### 4. 部署 DeepSeek 或 Qwen 模型 以部署 DeepSeek 模型为例,假设你已经下载了模型权重文件并将其放置在本地目录中,可以使用以下命令启动服务: ```bash python -m vllm.entrypoints.api_server --host 0.0.0.0 --port 8080 --model /path/to/deepseek ``` 对于通义千问(Qwen),同样需要将模型路径替换为 Qwen 的本地存储路径: ```bash python -m vllm.entrypoints.api_server --host 0.0.0.0 --port 8080 --model /path/to/qwen ``` ### 推理请求示例 一旦服务启动成功,可以通过 HTTP 请求进行推理: ```bash curl http://localhost:8080/generate -d '{"prompt": "Hello, how are you?", "max_tokens": 50}' ``` ### 注意事项 - 如果没有 GPU,vLLM 也可以运行,但推理速度会显著下降。 - 当前版本的 vLLM 不支持适配器(LoRA、QLoRA)功能,因此无法直接加载仅包含适配器权重的模型[^3]。 - 对于非标准架构的模型(如 Falcon),可能需要额外修改代码或配置来支持。 --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

_翩翩少年

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值