GStreamer开发笔记(九):gst-rtcp-server安装和部署实现简单的rtsp-server服务器推流Demo

前言

  Gstreamer还有一个重要的功能就是充当rtsp流媒体服务器。

 

注意

  本ubuntu是虚拟机,对延迟可能影响较大,延迟可作为参考,物理机可能更快。

 

Demo

  在这里插入图片描述

 

RTP和RTSP支持

  GStreamer对RTP和RTSP都有很好的支持,其RTP/RTSP栈多年来已被广泛应用于各种关键任务和低延迟场景的生产中,从小型嵌入式设备到大型视频会议和指挥控制系统。

安装gst和gst-rtsp-server

安装gstreamer1.0环境

/* by 01130.hk - online tools website : 01130.hk/zh/calorie.html */
sudo apt-get update
sudo apt-get install libgstreamer1.0-dev libgstreamer-plugins-base1.0-dev libgstreamer-plugins-bad1.0-dev gstreamer1.0-plugins-base gstreamer1.0-plugins-good gstreamer1.0-plugins-bad gstreamer1.0-plugins-ugly gstreamer1.0-libav gstreamer1.0-doc gstreamer1.0-tools gstreamer1.0-x gstreamer1.0-alsa gstreamer1.0-gl gstreamer1.0-gtk3 gstreamer1.0-qt5 gstreamer1.0-pulseaudio
sudo apt-get install libglib2.0-0

查看本地gst版本

  在这里插入图片描述

下载对应版本GStreamer-rtsp-server

  下载地址:https://gstreamer.freedesktop.org/src/gst-rtsp-server/
  在这里插入图片描述

 

Ubuntu编译gstreamer-rtsp-server

步骤一:下载解压

/* by 01130.hk - online tools website : 01130.hk/zh/calorie.html */
cd ~/work/src
tar xvf gst-rtsp-server-1.16.3.tar.xz

  在这里插入图片描述

步骤二:配置

cd gst-rtsp-server-1.16.3/
./autogen.sh

  在这里插入图片描述

步骤三:出现配置错误“gtk-doc >= 1…12”

  在这里插入图片描述

sudo apt-get install gtk-doc-tools

  继续:

./autogen.sh

  完成:
  在这里插入图片描述

步骤四:编译

make -j4
make

  在这里插入图片描述

  在这里插入图片描述

步骤五:安装部署

sudo make install

  在这里插入图片描述

  在这里插入图片描述

步骤六:测试gst-rtsp-server

./test-launch "( v4l2src device=/dev/video0 ! video/x-raw, format=NV12, width=1920, height=1080, framerate=30/1 ! mpph264enc ! rtph264pay name=pay0 pt=96 )"

  在这里插入图片描述

./test-launch “( videotestsrc ! video/x-raw,width=640,height=480,framerate=30/1 ! timeoverlay ! tee name=vsrc vsrc. ! queue ! videoconvert ! ximagesink vsrc. ! queue ! x264enc tune=zerolatency ! rtph264pay name=pay0 pt=96 )”

  在这里插入图片描述

  在这里插入图片描述

  关掉防火墙重启,再次连接:
  在这里插入图片描述

  检查摄像头支持的格式:
  在这里插入图片描述

  推送测试视频流:

./test-launch "( videotestsrc ! x264enc ! rtph264pay name=pay0 pt=96 )"  

  在这里插入图片描述

  继续测试摄像头,增加调试宏:
  在这里插入图片描述

  在这里插入图片描述

  整理如下:
  在这里插入图片描述

  将:

./test-launch "( v4l2src device=/dev/video0 ! video/x-raw,width=640,height=480,framerate=30/1 ! queue ! x264enc ! rtph264pay name=pay0 pt=96 )"

  改为:

./test-launch "(  v4l2src device=/dev/video0 ! video/x-raw, format='YUY2', width=640, height=480, framerate=30/1  ! queue ! x264enc ! rtph264pay name=pay0 pt=96 )"

  继续,报错:
  在这里插入图片描述

  修改:

GST_DEBUG=1 ./test-launch "( v4l2src device=/dev/video0 ! video/x-raw, format=YUY2, width=640, height=480, framerate=30/1  ! queue ! x264enc ! rtph264pay name=pay0 pt=96 )"

  继续:
  在这里插入图片描述

  修改:

./test-launch "( v4l2src device=/dev/video0 ! video/x-raw,format=YUY2,width=640,height=480,framerate=30/1 ! queue ! videoconvert ! x264enc ! rtph264pay name=pay0 pt=96 )"

  继续,播放了,延迟4-5s左右:
  在这里插入图片描述

  优化参数:

./test-launch "( v4l2src device=/dev/video0 ! video/x-raw,format=YUY2,width=640,height=480,framerate=30/1 ! queue ! videoconvert ! x264enc tune=zerolatency speed-preset=ultrafast ! rtph264pay name=pay0 pt=96 )"

  继续,延迟还有1.4s左右:
  在这里插入图片描述

  继续优化:

./test-launch "( v4l2src device=/dev/video0 ! video/x-raw,format=YUY2,width=640,height=480,framerate=30/1 ! queue max-size-buffers=1 max-size-bytes=0 max-size-time=0 ! videoconvert ! x264enc tune=zerolatency speed-preset=ultrafast ! rtph264pay name=pay0 pt=96 )"

  还是1.4s左右:
  在这里插入图片描述

步骤七:使用image/jepg格式

./test-launch "( v4l2src device=/dev/video0 ! image/jpeg,width=640,height=480,framerate=30/1 ! queue max-size-buffers=1 max-size-bytes=0 max-size-time=0 ! videoconvert ! x264enc tune=zerolatency speed-preset=ultrafast ! rtph264pay name=pay0 pt=96 )"

  在这里插入图片描述

  修改为:

GST_DEBUG=1 ./test-launch "( v4l2src device=/dev/video0 ! image/jpeg,width=640,height=480,framerate=30/1 ! queue max-size-buffers=1 max-size-bytes=0 max-size-time=0 ! jpegdec ! videoconvert ! x264enc tune=zerolatency speed-preset=ultrafast ! rtph264pay name=pay0 pt=96 )"

  在这里插入图片描述

 

与live555直接在getNextFramed对比

  在这里插入图片描述

   在这里插入图片描述

  此方法需要2秒多,且用的是mpeg。

内容概要:本文介绍了ENVI Deep Learning V1.0的操作教程,重点讲解了如何利用ENVI软件进行深度学习模型的训练与应用,以实现遥感图像中特定目标(如集装箱)的自动提取。教程涵盖了从数据准备、标签图像创建、模型初始化与训练,到执行分类及结果优化的完整程,并介绍了精度评价与通过ENVI Modeler实现一键化建模的方法。系统基于TensorFlow框架,采用ENVINet5(U-Net变体)架构,支持通过点、线、面ROI或分类图生成标签数据,适用于多/高光谱影像的单一类别特征提取。; 适合人群:具备遥感图像处理基础,熟悉ENVI软件操作,从事地理信息、测绘、环境监测等相关领域的技术人员或研究人员,尤其是希望将深度学习技术应用于遥感目标识别的初学者与实践者。; 使用场景及目标:①在遥感影像中自动识别提取特定地物目标(如车辆、建筑、道路、集装箱等);②掌握ENVI环境下深度学习模型的训练程与关键参数设置(如Patch Size、Epochs、Class Weight等);③通过模型调优与结果反馈提升分类精度,实现高效自动化信息提取。; 阅读建议:建议结合实际遥感项目边学边练,重点关注标签数据制作、模型参数配置与结果后处理环节,充分利用ENVI Modeler进行自动化建模与参数优化,同时注意软硬件环境(特别是NVIDIA GPU)的配置要求以保障训练效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值