音视频
文章平均质量分 89
浅慕Antonio
分享编程知识
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【音视频】Android NDK 与.so库适配
摘要: 本文系统解析Android NDK开发中的关键概念,包括.so库、ABI/EABI定义及32/64位CPU差异。重点分析Android支持的7种CPU架构(仅ARM主流),对比大厂APP的适配方案(微信/支付宝等),提出三种适配策略:armeabi(兼容优先)、armeabi-v7a(平衡)、arm64-v8a(性能优先)。强调禁止混合架构使用,并介绍ABI Split分包方案优化体积。指出未来趋势将向arm64-v8a迁移,新项目建议优先适配64位架构,兼顾Google政策与性能需求。原创 2025-09-11 21:44:44 · 1135 阅读 · 0 评论 -
【音视频】WebRTC 音视频延时、同步分析以及超低延时优化
本文分析了WebRTC框架中音视频延时的计算与优化方法。音频延时主要包含播放设备延时(playout_delay_ms)和网络抖动延时(jitter_delay),后者通过NetEq模块计算得出。视频延时则包含解码延时(decode_delay)、渲染延时(render_delay)和网络抖动延时(jitter_delay),其中jitter_delay采用卡尔曼滤波算法进行动态估算,通过帧间相对延时、帧大小差等参数建立状态模型,并结合观测噪声进行预测修正。文章详细介绍了卡尔曼滤波在WebRTC中的实现逻辑原创 2025-09-08 09:09:34 · 1095 阅读 · 0 评论 -
【音视频】WebRTC 服务器技术选型分析
本文探讨了常见的SFU开源解决方案,包括Licode、Janus-gateway、Mediasoup和Medooze。Licode功能全面但性能一般,Janus架构灵活但实现复杂,Mediasoup专注于高效传输,Medooze支持多协议但社区支持较弱。建议根据项目需求选择,快速搭建业务可优先考虑Licode或Janus,追求高性能推荐Mediasoup。需注意开源方案可能带来技术债,长期维护需权衡人力成本与开发周期。原创 2025-09-07 23:34:02 · 717 阅读 · 0 评论 -
【音视频】WebRTC P2P、SFU 和 MCU 架构
视频会议系统主要有三种架构:P2P(点对点)、SFU(选择性转发单元)和MCU(多点控制单元)。P2P架构简单且隐私性好,但上传带宽和CPU消耗大,仅适用于1-1通话。SFU是目前主流选择,通过服务器转发流,显著提升上传带宽利用率和可扩展性,支持联播技术优化质量。MCU将多流合并为单一流,客户端资源消耗低,但服务器成本高且布局不灵活。混合架构结合P2P和SFU,根据参与者数量动态切换,平衡资源与成本。SFU因综合优势成为最广泛采用的方案。原创 2025-09-07 23:22:03 · 1086 阅读 · 0 评论 -
【音视频】Http-FLV 介绍
HTTP-FLV是一种基于HTTP协议的流媒体传输技术,通过FLV容器格式和分块编码实现低延迟直播。其核心优势在于1-5秒的低延迟和防火墙穿透能力,适合电商直播等实时场景。与HLS相比,HTTP-FLV延迟更低,但缺乏自适应码率能力;与本地FLV文件相比,它是实时流媒体而非静态文件。HLS更适合跨平台点播和对延迟不敏感的场景,而本地FLV适合离线播放。技术选型需根据具体场景需求权衡延迟、兼容性和交互性等因素。HTTP-FLV在Web端低延迟直播中具有独特优势。原创 2025-09-07 22:19:04 · 984 阅读 · 0 评论 -
【音视频】详解低延时高音质:声音的美化与空间音效篇
摘要:声网Agora推出实时美声功能,通过声音美化技术实现自然悦耳的语音效果,同时保留原声辨识度。该技术基于对专业声优、播音员等数据的多维度分析,针对不同场景(如聊天、歌唱)和性别特征进行优化处理。此外,文章还介绍了空间音效技术,包括高保真度立体声像复制(Ambisonics)和虚拟立体声(HRTF技术),可应用于游戏、会议等场景,实现听音辨位和沉浸式体验。这些创新技术提升了实时互动中的音频质量与空间感。原创 2025-09-07 16:52:56 · 715 阅读 · 0 评论 -
【音视频】详解低延时高音质:丢包、抖动与 last mile 优化那些事儿
本文探讨了实时音频互动中的三大网络挑战:丢包、延时和抖动。文章首先将音频传输链路细分为采集、信号处理、编码、网络传输和解码播放五个环节,指出每个环节都可能引入不同类型的信号损伤。然后重点分析了网络传输中的三个核心问题:丢包导致音频卡顿,延时影响实时性,抖动造成数据包乱序。针对这些问题,提出了前向纠错(FEC)、自动重传请求(ARQ)等解决方案,并介绍了声网Agora SOLO将信源编码与信道编码结合的创新方法。最后通过实测数据对比,展示了优化后的音频服务在MOS评分和延时方面的显著优势,强调网络优化需要持续原创 2025-09-07 16:18:49 · 827 阅读 · 0 评论 -
【音视频】详解低延时高音质:回声消除与降噪篇
本文详解了实时音频互动中回声消除(AEC)与降噪的技术挑战与优化方案。回声消除包含三大核心算法模块:延迟估计、线性自适应滤波器和非线性处理。声网通过增强延迟估计算法鲁棒性、自适应降低计算量、动态更新音频算法库提升设备覆盖率,在96%的测试数据中1秒内完成初始延迟估计。线性滤波器采用混合算法结构,在47%的测试中实现超20dB回声抑制,收敛速度较友商快3倍。文章还通过实际案例展示了算法在复杂声学环境中的适应性,为实时音质优化提供了有效解决方案。原创 2025-09-07 14:47:50 · 975 阅读 · 0 评论 -
【音视频】声网1-详解低延时高音质:编解码篇
摘要:音频互动体验的提升需要从编解码技术入手。文章分析了影响音质的四大关键指标:采样率决定音频分辨率(如32kHz采样率比传统8kHz更清晰),码率影响细节还原度但需平衡带宽,编码复杂度存在"质量甜点",抗丢包能力与编码效率需权衡。声网研发的Nova编解码器采用32kHz采样率,优化编码复杂度,在相同码率下比Opus多保留30%频谱信息,主客观测试均表现更优。下期将探讨回声消除与降噪算法对音质的改善。(149字)原创 2025-09-06 23:56:36 · 991 阅读 · 0 评论 -
【音视频】H264编码参数优化和cbr、vbr、crf模式设置
本文介绍了H264编码在低带宽、高丢包的图传场景(如无人机、工业监控)下的优化策略,重点围绕降低延时、减少马赛克展开。核心内容包括: 9大优化技术: 禁用B帧减少100ms延时 启用FMO降低丢包影响 关闭RS冗余节省带宽 去块滤波改善视觉效果 RVLC编码缩小错误范围 帧内预测防止错误扩散 调整QP值平衡画质与码率 优化GOP结构合理分配码率 采用VBR动态适应运动场景 码率控制模式对比:详细分析了CQP、ABR等6种模式的适用场景和配置方法。 问题诊断:解释了花屏/绿屏的根本原因及解决方案。 这些优化策原创 2025-09-06 23:24:30 · 1414 阅读 · 0 评论 -
【音视频】H264 -SEI 介绍
SEI(补充增强信息)是H.264/H.265视频编码标准中用于在视频码流内传递额外信息的技术。它不属于必需解码内容,但能实现音视频与业务数据的同步传输,广泛应用于直播问答等场景。SEI通过NAL单元传输,支持自定义数据类型,其负载类型和大小采用可变长度编码。在H.264中由NAL头类型6标识,H.265中则对应类型39和40。典型应用如通过user_data_unregistered类型传递编码参数,其中包含16字节UUID和自定义内容。SEI可通过视频编码、码流过滤或容器封装等方式生成,为视频业务扩展提原创 2025-09-06 22:20:48 · 1339 阅读 · 0 评论 -
【音视频】 RGB 格式详解
RGB色彩模式起源于19世纪的三原色视觉理论,通过红、绿、蓝三色光的叠加产生丰富色彩。现代数字显示设备普遍采用RGB模式,使用不同位深(如RGB24为3字节/像素)表示颜色。常见存储类型包括RGB555、RGB565、RGB32等,各有不同的数据位分配方式。相比单通道灰度图,多通道RGB能呈现更丰富的色彩信息,但处理速度较慢。该模式广泛应用于显示设备和图像处理领域,能组合出人眼可识别的大多数颜色。原创 2025-09-03 22:38:37 · 1264 阅读 · 0 评论 -
【音视频】 YUV 格式详解
YUV是一种将亮度(Y)与色度(UV)分离的像素格式,主要用于视频编码和图像处理。它通过不同的采样方式(4:4:4、4:2:2、4:2:0等)减少色度数据量而不显著影响视觉质量。YUV的存储格式分为平面(如I420)、半平面(如NV12)和打包(如YUYV)三种类型,各有特点。平面格式将YUV分量分别存储;半平面格式将UV交错存储;打包格式则将所有数据交织在一起。不同格式适用于不同场景,如NV12常用于iOS相机输出,NV21是Android默认格式。这种设计在保证图像质量的同时优化了存储和传输效率。原创 2025-09-03 22:23:13 · 1354 阅读 · 0 评论 -
【音视频】视频秒播优化实践
短视频秒播优化全链路解析 摘要:视频秒播是提升用户体验的核心指标,本质是将首帧耗时压缩至用户无感知范围(200-500毫秒)。优化需覆盖全链路:地址获取(提前下发播放链接)、网络传输(智能预加载关键数据)、播放器处理(预渲染解复用)和渲染展示。针对不同场景需差异化策略,如短视频滑动采用双播放器实例复用,长视频采用关键帧起播,页面跳转实现播放器实例迁移。优化需平衡资源占用,通过预加载量控制、并行数量限制等手段,在保证当前播放流畅的前提下提升秒播效果。后续需持续适配网络环境、机型性能和用户习惯的多样性。原创 2025-09-03 18:39:19 · 843 阅读 · 0 评论 -
【音视频】WebRTC ICE 模块深度剖析
WebRTC ICE技术解析:突破NAT壁垒实现P2P通信 WebRTC的ICE(交互式连接建立)协议是解决NAT环境下设备间直接通信的关键技术。它通过整合STUN和TURN协议,动态收集四种候选地址(Host本地地址、Srflx服务器反射地址、Prflx对等反射地址和Relay中继地址),检测连通性并选择最优传输路径。STUN负责发现NAT映射地址和检查连通性,而TURN则在P2P失败时提供数据中继。ICE根据NAT类型(完全/IP/端口限制圆锥型或对称型)智能选择通信策略,优先尝试P2P打洞,失败时自动原创 2025-09-03 16:09:44 · 1057 阅读 · 0 评论 -
【音视频】FMP4 介绍
FMP4(Fragmented MP4)是MP4的扩展格式,专为流媒体传输设计。它将音视频数据拆分为多个MOOF和MDAT片段,支持DASH和HLS等流媒体协议,实现快速点播和码率自适应。相比普通MP4的单文件结构,FMP4由初始化段(moov)和多个媒体片段(moof+mdat)组成,支持分片加载,适用于直播和点播场景。FMP4已广泛应用于HLS(CMAF)和DASH协议,显著降低延迟并提高兼容性。通过FFmpeg工具可轻松实现MP4与FMP4格式的互相转换。原创 2025-09-03 13:39:49 · 1370 阅读 · 0 评论 -
【音视频】封装格式与音视频同步
封装格式(也叫容器)就是将已经编码压缩好的视频流、音频流及字幕流按照一定的方案放到一个文件中,便于播放软件播放。一般来说,视频文件的后缀名就是它的封装格式。封装的格式不一样,后缀名也就不一样(比如.mp4、.flv)就像同样的陷可以做成饺子也可以做成包子。对于视频也是一个道理,同样的音视频流可以用不同容器来承载。原创 2025-03-04 00:27:06 · 470 阅读 · 0 评论 -
【音视频】WebRTC-BWE
本文介绍了WebRTC中的带宽评估(BWE)模块原理与实现。BWE通过动态调整发送码率避免网络拥塞,早期基于丢包率算法,现代则采用更灵敏的延迟检测技术。重点分析了基于延时的拥塞控制机制,包括包组延迟评估、趋势线滤波、过载检测和AIMD码率调节算法,最终结合丢包与延时探测结果确定最优码率。文章还解读了Pacer、FEC和编码器的码率分配策略,其中Pacer码率默认为探测值的2.5倍,FEC冗余数据动态占用带宽,剩余带宽分配给编码器。通过这套机制,WebRTC实现了高效的网络自适应能力。原创 2025-09-03 00:58:59 · 789 阅读 · 0 评论 -
【音视频】WebRTC-Pacer
WebRTC的平滑发包(Pacer)机制通过动态控制数据包发送速率来优化实时通信质量。其核心架构包含TaskQueuePacedSender驱动层、PacingController控制层和BitRateProber探测模块,采用"发送-等待"模型将数据包分片均匀发送。系统通过media_debt_变量动态调整发包间隔,支持媒体报文、保活报文和探测报文三种类型。关键方法通过任务队列实现线程安全,算法上采用指数加权平均计算报文大小,并针对探测报文设置特殊处理逻辑。这种设计有效避免了网络拥塞,原创 2025-09-03 00:18:42 · 821 阅读 · 0 评论 -
【音视频】WebRTC-NACK
WebRTC中的NACK(Negative Acknowledgment)机制用于处理实时通信中的网络丢包问题。当接收端检测到数据包丢失时,会发送NACK请求通知发送端重传丢失的包。发送端通过RtpPacketHistory缓存已发送的包,以便快速响应重传请求,同时根据网络延迟和容量限制动态管理缓存队列。接收端的NackRequester负责判断丢包并及时请求重传。该机制通过权衡延迟和重传效率,确保通信的连续性和质量。原创 2025-09-02 22:49:18 · 926 阅读 · 0 评论 -
【音视频】火山引擎实时、低延时拥塞控制算法的优化实践
火山引擎智能拥塞控制算法VICC是一种自适应的音视频传输优化方案,针对GCC和BBR算法在实时音视频场景中的不足进行创新。该算法通过自适应拥塞响应、抗干扰、丢包检测等核心机制,解决了大小缓存导致的卡顿问题。VICC具备2000ms抗抖动能力和70%随机丢包抗性,支持根据不同业务场景(如200-300ms容忍的互娱场景和50-100ms要求的云游戏场景)灵活调整灵敏度。实验数据显示,其带宽探测比GCC/BBR更平稳,在弱网环境下能快速跟踪实际带宽,显著提升了音视频传输质量和用户体验。(149字)原创 2025-09-02 21:08:24 · 1219 阅读 · 0 评论 -
【音视频】 WebRTC GCC 拥塞控制算法
GCC(Google Congestion Control)是 Google 为实时音视频通信(RTC)设计的拥塞控制算法,是 WebRTC 框架默认的拥塞控制方案。其核心目标是在避免网络拥塞的前提下,最大化利用网络带宽,同时保证音视频传输的低延迟和低丢包率 —— 这对实时场景(如视频会议、直播)至关重要。原创 2025-09-02 20:24:20 · 1560 阅读 · 0 评论 -
【音视频】VP8 与 VP9 技术详解及与 H.264 H.265 的对比
VP8与VP9是Google主导的开源视频编码标准。VP8作为H.264的替代方案,主要应用于WebRTC和WebM格式,采用16x16宏块分割、1/4像素运动补偿和DCT变换等技术。VP9则对标H.265,在VP8基础上引入超级块(64x64)、更精细的预测模式(10种帧内预测)、帧间预测(8个参考帧)和自适应环内滤波等创新,压缩效率提升50%以上。两者均通过libvpx实现,支持WebM容器格式,广泛应用于YouTube、WebRTC等场景。相比H.264/H.265,VPx系列的优势在于开源免专利费,原创 2025-09-02 17:42:29 · 1874 阅读 · 0 评论 -
【音视频】Opus 编码格式介绍
Opus是一款由IETF标准化的开源音频编解码器,整合了SILK(语音优化)和CELT(音乐优化)技术,支持6-510kbit/s比特率、8-48kHz采样率及5-65.2ms延迟。其核心特性包括:动态模式切换(SILK/CELT/混合模式)、实时参数调整(比特率/帧长/复杂度等)、强抗丢包能力(FEC/DTX)及多场景适配(VoIP/音乐流媒体)。Opus通过TOC字节实现灵活帧配置,在WebRTC、直播等领域成为首选方案,兼顾低延迟与高音质需求。原创 2025-09-02 16:35:05 · 2547 阅读 · 0 评论 -
【音视频】WebRTC-NetEQ 分析
NetEQ是WebRTC中的核心音频抖动缓冲器技术,源自谷歌收购的GIPS语音引擎。它通过自适应抖动控制和丢包隐藏算法,在较高网络丢包率下保持优质语音质量,同时降低延时30-80ms。关键技术包括:1)基于包到达间隔的抖动估计模块,动态计算目标缓冲水位;2)峰值抖动检测机制,应对突发延迟;3)缓冲过滤器实时调整播放策略。NetEQ采用四层缓冲架构(Packet/Decoded/Algorithm/Sync Buffer)和智能决策逻辑,根据网络状况自动切换正常/加速/减速播放或丢包补偿模式,在10ms粒度上原创 2025-09-02 14:45:35 · 1165 阅读 · 0 评论 -
【音视频】 WebRTC-jitterbuffer延时分析
WebRTC中的抖动缓冲区(jitterbuffer)用于消除网络抖动对视频播放的影响,确保平滑播放。它分为缓冲管理和延时计算两部分,采用自适应策略动态调整延迟时间。核心流程包括数据接收、组帧、参考帧设置、插入帧缓冲区,最后在适当时机解码渲染。延时计算涉及网络抖动延时、解码延时和固定渲染延时,通过卡尔曼滤波优化抖动值。关键时间点包括期望解码时间、渲染时间等,动态调整缓冲区大小以平衡延迟和卡顿问题。原创 2025-09-02 02:30:10 · 1470 阅读 · 0 评论 -
【音视频】WebRTC QoS 概述
本文探讨了音视频通讯中的QoS(服务质量保障)技术体系。QoS分为基于网络的NQoS和基于应用的AQoS,音视频领域主要关注AQoS。文章分析了音视频通讯面临的网络复杂性和多样化业务场景挑战,指出用户体验主要取决于清晰度、流畅性和实时性三个维度。针对弱网环境(拥塞、丢包、延时等),提出了四大类QoS技术:拥塞控制、信源控制、抗丢包和抗抖动。这些技术贯穿音视频通讯全链路,在媒体编解码、传输等环节发挥作用,是保障弱网环境下用户体验的关键。文章特别强调了基于UDP传输的低延时场景中QoS技术的重要性。原创 2025-09-01 22:20:37 · 1144 阅读 · 0 评论 -
【音视频】GOP 的设置和分析
GOP(图像组)是H.264编码中两个I帧之间的帧序列,包含I、P、B三种帧类型。GOP长度和Reference间隔是关键参数,影响编码效率与画质:较长的GOP能在相同码率下提升画质,但会受场景切换限制,且增加解码延迟和Seek时间。合理设置GOP需平衡画质、编码效率和操作响应性。原创 2025-08-21 17:00:44 · 785 阅读 · 0 评论 -
【音视频】闭合GOP和开放GOP
摘要: GOP(图像组)是视频编码中的关键概念,分为闭合GOP和开放GOP。闭合GOP(以IDR帧开始)内帧仅参考本组数据,适合点播、ABR切换、直播时移等需要独立解码的场景;开放GOP允许跨组参考,压缩效率更高,适用于存储型视频或顺序播放场景。闭合GOP牺牲压缩率换取灵活性,开放GOP反之,两者选择需权衡实际需求(如随机访问、带宽、延迟等)。技术细节可参考原文及GitHub资料。 (字数:150)原创 2025-08-21 14:20:42 · 1133 阅读 · 0 评论 -
【音视频】WebRTC 一对一通话 peerconnection_client 分析
学习WebRTC可以从peerconnection_client项目入手,重点分析其信令流程和API使用。信令服务器需实现SDP交换、Candidate交换和业务逻辑处理,可采用WebSocket或HTTP协议。核心文件conductor.cc包含WebRTC的关键功能如媒体协商、网络协商等,通过回调机制与UI线程交互。初始化时需配置SSL、网络库等系统资源,并建立主窗口与消息循环。整体流程包括客户端连接、信令交换、媒体流传输等环节,可作为WebRTC开发的入门参考。原创 2025-08-19 00:38:53 · 1165 阅读 · 0 评论 -
【音视频】WebRTC C++ native 编译
本文介绍了在Windows10+VS2019环境下编译WebRTC源码的完整步骤。主要包括环境搭建(安装VS2019、Python3和depot_tools工具包)、使用gn生成工程文件、通过ninja编译项目,以及解决编译过程中出现的常见问题。最后展示了编译成功的可执行文件测试结果,包括服务器和客户端的连接测试,并提供了遇到闪退问题的解决方案。文中还附有源码下载地址和环境配置说明,为开发者提供了完整的WebRTC编译指南。原创 2025-08-07 23:38:51 · 1071 阅读 · 0 评论 -
【音视频】WebRTC 一对一通话-部署到公网
本文详细介绍了搭建支持HTTPS和WebSocket的Nginx服务器方案。首先通过安装依赖、编译安装Nginx 1.15.8版本,并生成自签名证书;然后配置Nginx实现HTTPS服务,解决WebRTC访问摄像头必须使用安全连接的问题;接着通过Nginx反向代理实现WSS(WebSocket Secure)连接,保障WebSocket通信安全;最后集成Coturn服务器提供STUN/TURN服务,完成完整的WebRTC通信环境搭建。文章提供了完整的配置代码和操作步骤,包括Nginx编译安装、SSL证书生成原创 2025-08-06 00:55:39 · 971 阅读 · 0 评论 -
【音视频】WebRTC 一对一通话-信令服
本文介绍了基于C++的WebSocket服务器实现,重点讲解了房间管理和信令处理机制。服务器采用WebSocketpp库搭建,通过JSON格式与前端通信。主要内容包括: 服务器配置:基于Ubuntu系统,使用WebSocketpp和nlohmann/json库实现WebSocket和JSON解析功能。 WebSocket连接:设置监听端口和回调函数(连接、消息接收、断开连接)。 房间管理:使用map结构存储房间信息,每个房间维护一个客户端列表(包含UID、房间号和连接句柄)。 信令处理:定义了9种信令类型,原创 2025-08-05 17:06:52 · 1202 阅读 · 0 评论 -
【音视频】WebRTC 一对一通话-Web端
本文介绍了基于WebRTC的一对一视频通话实现方案。前端页面包含房间ID输入框、加入/离开房间按钮及本地/远端视频窗口。核心部分通过RTCEngine类实现WebSocket连接管理,封装了创建连接、消息收发等基础功能。系统定义了8种JSON格式信令(join、offer、answer等)用于房间管理和媒体协商,并通过onMessage回调函数处理不同信令类型。本地视频需设置muted属性以避免回声问题。该方案实现了基本的P2P视频通话功能,包含房间管理、信令交互和媒体传输等核心模块。原创 2025-08-05 02:57:37 · 1075 阅读 · 0 评论 -
【音视频】WebRTC 一对一通话-实现概述
本文介绍了基于WebRTC技术的音视频通话系统实现方案。系统分为Web端和服务器端:Web端采用HTML+JavaScript实现,通过RTCPeerConnection类处理音视频流;服务器端使用C++开发信令服务器,采用WebSocket协议与Web端通信,并通过coturn实现STUN/TURN服务。系统设计了8种JSON格式信令实现房间管理、媒体协商和网络协商功能。详细说明了媒体协商流程(createOffer/createAnswer)和网络协商机制(addIceCandidate),通过SDP交原创 2025-08-04 17:39:22 · 1294 阅读 · 0 评论 -
【音视频】WebRTC 中的RTP、RTCP、SDP、Candidate
本文详细介绍了实时音视频传输中的RTP(实时传输协议)和RTCP(RTP控制协议)在WebRTC中的应用。RTP负责音视频数据的封装、分片传输与时序控制,支持动态载荷类型协商、大帧分片重组和扩展头部功能,并通过SRTP加密确保安全性。RTCP则通过周期性的收发报告(SR/RR)监测网络状态,提供丢包率、抖动和RTT等关键指标,实现自适应码率调整和媒体同步。两者协同工作,共同保障WebRTC在复杂网络环境下的实时通信质量。文章还通过具体示例解析了RTP报文各字段含义,并展示了协议在实际场景中的应用。原创 2025-08-01 17:37:55 · 1386 阅读 · 0 评论 -
【音视频】WebRTC-Web 音视频采集与播放
本文介绍了如何在网页中通过WebRTC API实现摄像头、麦克风等媒体设备的调用。主要内容包括: 打开摄像头:通过video标签、getUserMedia方法和相关回调函数实现摄像头视频流的获取与显示。 打开麦克风:类似摄像头实现,使用audio标签并添加controls控件,修改媒体约束只获取音频。 同时打开摄像头和麦克风:只需在媒体约束中将video和audio都设为true即可。 文章详细说明了HTML标签属性设置、JavaScript媒体约束对象定义、成功/错误回调函数实现,以及如何将媒体流绑定到对原创 2025-07-30 22:15:20 · 1369 阅读 · 0 评论 -
【音视频】WebRTC 开发环境搭建-Web端
本文介绍了WebRTC开发环境搭建流程:1)安装VSCode及Live Server插件用于前端开发测试;2)在Ubuntu系统下通过wget安装Node.js并配置环境变量;3)从GitHub克隆coturn(STUN/TURN服务器)源码,完成编译安装后启动服务并验证3478端口监听状态。文中提供了详细的操作命令和测试方法,包括前端页面实时预览、Node环境检测以及coturn服务器后台启动等关键步骤。原创 2025-07-30 19:36:17 · 462 阅读 · 0 评论 -
【音视频】WebRTC 介绍
WebRTC是一套开源技术标准,实现浏览器间实时音视频通信和数据传输。其核心架构采用分层设计:Web API层为开发者提供标准化JS接口;Native C++层由浏览器厂商实现底层功能;引擎层处理音视频编解码、网络传输等核心逻辑,包括音频引擎(NetEQ、回声消除)、视频引擎(VP8编解码)和网络传输(ICE/STUN/TURN)。通信流程分为媒体协商(通过SDP协议交换编解码能力)和网络协商(通过ICE框架实现NAT穿透)。WebRTC支持跨平台运行,无需插件,已成为实时Web通信的核心技术。原创 2025-07-30 01:53:54 · 1856 阅读 · 0 评论 -
【音视频】nginx-hls-多码率测试环境搭建
本文介绍了nginx-http-flv-module开源项目的功能对比和环境搭建方法。该项目相比nginx-rtmp-module新增了HTTP-FLV播放、GOP缓存、虚拟主机等特性。环境搭建部分详细说明了在Ubuntu系统下安装依赖库(gcc、pcre、zlib、openssl)、下载nginx-http-flv-module源码、配置nginx编译选项(注意处理OpenSSL 3.0的函数弃用警告)以及编译安装的完整过程。其中特别提醒了模块路径配置错误可能导致的问题,并提供了解决OpenSSL版本兼容原创 2025-07-12 00:12:06 · 657 阅读 · 0 评论
分享