写点什么

WebRTC 学习—WebRTC 详解

发布于: 2021 年 06 月 16 日

目录一:

WebRTC 学习了解  

(一)WebRTC 应用场景  

(二)WebRTC 的难点  

(三)学习流程  

(四)学习目标

二:WebRTC 介绍  

(一)概述  

(二)WebRTC 可以实现的功能  

(三)WebRTC 学习内容

三:WebRTC 原理与架构  

(一)核心层解析  

(二)引擎层:音频引擎、视频引擎、传输模块补充:虽然 UDP 很适合实时通讯,但是也有需要使用 TCP 的场景

四:WebRTC 目录结构  

(一)主目录结构  

(二)WebRTC Module 目录

五:WebRTC 运行机制  

(一)轨与流(流包含多个轨)  

(二)WebRTC 的重要类  

(三)PeerConnection 调用过程  

(四)调用时序图

六:音视频流媒体服务器学习路线总结

(一)学习路线思维导图

(二)视频学习资料

WebRTC 原理相关视频讲解:

WebRTC 音视频开发原理到实践:WebRTC音视频开发原理到实践

音视频流媒体服务器高级开发:FFmpeg/WebRTC/RTMP/NDK/Android音视频流媒体高级开发

一:WebRTC 学习了解

(一)WebRTC 应用场景

WebRTC 的愿景就是各浏览器之间可以快速开发可以实时互动的音视频的应用场景!!!

将 WebRTC 加入浏览器,使得浏览器的功能更加强大。WebRTC(Web Real-Time Communication)项目的最终目的主要是让 Web 开发者能够基于浏览器(Chrome\FireFox\...)轻易快捷开发出丰富的实时多媒体应用,而无需下载安装任何插件,Web 开发者也无需关注多媒体的数字信号处理过程,只需编写简单的 Javascript 程序即可实现,W3C 等组织正在制定 Javascript 标准 API,目前是 WebRTC 1.0 版本,Draft 状态;另外 WebRTC 还希望能够建立一个多互联网浏览器间健壮的实时通信的平台,形成开发者与浏览器厂商良好的生态环境。同时,Google 也希望和致力于让 WebRTC 的技术成为 HTML5 标准之一,可见 Google 布局之深远。

(二)WebRTC 的难点

1.过多的协议,WebRTC太庞大、烦杂,门槛高2.客户端与服务端分离,WebRTC只有客户端,没有服务端,需要自己根据业务实现3.相关资料少4.网上代码错误太多
复制代码

(三)学习流程

(四)学习目标

二:WebRTC 介绍

WebRTC 与 FFmpeg 是音视频领域的两个佼佼者,两个侧重点不同,FFmpeg 侧重于多媒体文件的编辑,音视频的编解码....;WebRTC 侧重于处理网络抖动、丢包、评估以及音频处理,回音降噪等等。

(一)概述

(二)WebRTC 可以实现的功能

(三)WebRTC 学习内容

三:WebRTC 原理与架构

WebRTC 实现了基于网页的视频会议,标准是 WHATWG 协议,目的是通过浏览器提供简单的 javascript 就可以达到实时通讯(Real-Time Communications (RTC))能力。

WebRTC 整体架构主要分为两部分:

第一部分为绿色区域,为webrtc库所提供的核心功能第二部分为紫色区域,是浏览器提供的javascript的API层---也就是说浏览器对webrtc的核心层的C++ API做了一层封装,封装成为了javascript接口第三部分为箭头区域,是很多的上层应用
复制代码

调用顺序就是从上到下!!!

(一)核心层解析

分为如下 4 层:


第一层为C++ API,是WebRTC库提供给浏览器javascript层的核心功能API接口(不多,简单,比如:连接、P2P进行连接、传输质量、设备管理....)第二层为Session层,上下文管理层,音频、视频、非音视频的数据传输,都通过session层处理,实现相关逻辑第三层包括音频引擎、视频引擎、传输模块第四层与硬件相关,包括音视频的采集、网络IO (可重载的,可以使用自己的方案)
复制代码

注意:在 webrtc 中没有对视频进行渲染处理,所以需要我们在应用中自己实现!!

(二)引擎层:音频引擎、视频引擎、传输模块

将这 3 个模块分隔开来,逻辑更加清晰。另外音视频的同步不是在引擎层实现

1.音频引擎:包含一系列音频多媒体处理的框架,包括从视频采集卡到网络传输端等整个解决方案。VoiceEngine 是 WebRTC 极具价值的技术之一,是 Google 收购 GIPS 公司后开源的。

(1)编解码器

iSAC(Internet Speech Audio Codec):针对 VoIP 和音频流的宽带和超宽带音频编解码器,是 WebRTC 音频引擎的默认的编解码器

采样频率:16khz,24khz,32khz;(默认为16khz)自适应速率为10kbit/s ~ 52kbit/s;自适应包大小:30~60ms;算法延时:frame + 3ms
复制代码

iLBC(Internet Low Bitrate Codec):VoIP 音频流的窄带语音编解码器

采样频率:8khz;20ms帧比特率为15.2kbps30ms帧比特率为13.33kbps标准由IETF RFC3951和RFC3952定义
复制代码

(2)防止抖动与丢失

NetEQ for Voice:针对音频软件实现的语音信号处理元件

NetEQ算法:自适应抖动控制算法以及语音包丢失隐藏算法。使其能够快速且高解析度地适应不断变化的网络环境,确保音质优美且缓冲延迟最小。是GIPS公司独步天下的技术,能够有效的处理由于网络抖动和语音包丢失时候对语音质量产生的影响。
复制代码

PS:NetEQ 也是 WebRTC 中一个极具价值的技术,对于提高 VoIP 质量有明显效果,加以 AEC\NR\AGC 等模块集成使用,效果更好。

(3)回音消除、降噪

Acoustic Echo Canceler (AEC) :回声消除器是一个基于软件的信号处理元件,能实时的去除 mic 采集到的回声。

Noise Reduction (NR):噪声抑制也是一个基于软件的信号处理元件,用于消除与相关 VoIP 的某些类型的背景噪声(嘶嘶声,风扇噪音等等… …)

2.视频引擎:包含一系列视频处理的整体框架,从摄像头采集视频到视频信息网络传输再到视频显示整个完整过程的解决方案。

(1)编解码器:视频图像编解码器,是 WebRTC 视频引擎的默认的编解码器

VP8适合实时通信应用场景,因为它主要是针对低延时而设计的编解码器。
复制代码

PS:VPx 编解码器是 Google 收购 ON2 公司后开源的,VPx 现在是 WebM 项目的一部分,而 WebM 项目是 Google 致力于推动的 HTML5 标准之一

(2)视频抖动缓冲器:Video Jitter Buffer,可以降低由于视频抖动和视频信息包丢失带来的不良影响。

(3)图像质量增强模块:Image enhancements,对网络摄像头采集到的图像进行处理,包括明暗度检测、颜色增强、降噪处理等功能,用来提升视频质量。

3.传输:底层使用 UDP,上层使用 RTP。所有的音视频的接收与发送,都是通过传输模块实现的。此外在传输层实现了网络链路的检测,进行网络带宽的估计,从而对(音视频、非音视频)数据的传输进行控制。


由于浏览器需要安全传输,所以使用了SRTP协议,为了进行控制,使用了RTCP;为了处理多个流复用同一个通道,实现了Multiplexing最下面实现了P2P相关的协议,比如STUN + TRUN + ICE
复制代码

补充:虽然 UDP 很适合实时通讯,但是也有需要使用 TCP 的场景

连通性 TCP 要优于 UDP,假如国内外通信,可能某些区域不允许通过 UDP 进行实时传输。为了保证连通率,优先选择 UDP,如果 UDP 无法通信,则选择 TCP,以此来保证连通率。

当然,也存在部分情况,TCP 依旧不通,比如通过企业内部网访问,网关拒绝访问外网,这时可以使用 Https。这时不太保证实时性了

四:WebRTC 目录结构

(一)主目录结构


api目录 如果我们要增加接口或者调整接口,就需要到API目录下去修改相关接口!call目录 当与对端进行连接之后,同一个端的流通过Call进行管理;如果与多个对端进行连接,就会存在多个Callmedia目录 内部实现了编解码的逻辑处理(并没有实现编解码内部逻辑,是在Module中实现的),只是对编解码算法进行了调用控制(决定在哪调用)mudule目录 有很多子模块pc目录  代表与对端的连接,可以获取流,获取统计信息(上层的统一接口层)
复制代码

(二)WebRTC Module 目录


audio_mixer目录 实现混音操作,比如在多人通话时候,需要对多个音频进行混合处理,这样在传输时比较方便,减少了音频流audio_processing目录 实现音频的前后处理,比如降噪、回音消除...video_processing目录 实现视频的前后处理,可以添加如人脸识别等操作.... 
复制代码

五:WebRTC 运行机制

(一)轨与流(流包含多个轨)


轨:比如一路音频,就是一路轨;一路视频,也是一路轨。两条轨之间是不相交的,单独存放!!两路音频也是两路轨,也是不相交的

流:媒体流,内部包含了很多轨,两者属于层级关系

(二)WebRTC 的重要类


MediaStream同前面的讲解RTCPeerConnection:是整个WebRTC中最重要的类(大而全),包含了很多的功能。对于应用层非常方便,在应用层只要创建了PeerConnection,然后将流放入PeerConnection中即可,其他的逻辑全部由peerConnection内部实现RTCDataChannel:对于非音视频的数据,都通过dataChannel进行传输。其中RTCDataChannel是通过RTCPeerConnection获取的
复制代码

(三)PeerConnection 调用过程

PeerConnection 中包含两个线程,Worker 线程和 Signaling 线程,可以创建 PeerConnectionFactory,

之后 PerrConnectionFactory 可以创建 PeerConnection 和 LocalMediaStream 和 LocalVideo/AudioTrack

通过 AddTrack 将我们创建的多个 Track 轨加入到 MediaStream 流中,通过 AddStream 可以将多个 MediaStream 流(与多方通信,每一方(每一个参与单位)都是对应一个 Stream)加入同一个 PeerConnection 中(复用),

(四)调用时序图

1.首先应用层 Application【注意这里 Application 本身就是一个 PeerConnectionObserver】,创建出一个 PeerConnectionFactory【CreatePeerConnectionFactory】;

2.PeerConnectionFactory 触发 CreatePeerConnection、CreateLocalMediaStream、CreateLocalVideoTrack、CreateLocalAudioTrack 创建了 PeerConnection、MediaStream 等等实例;

3.然后通过 AddTrack,把各种轨(track)加到流(LocalMediaStream)中去,然后通过 AddStream,把流加到 PeerConnection 中;

4.流加到连接之后,会通过 CommitStreamChanges 提交流的变化;当流发生变化的时候,会触发 OnSignalingMessage 事件,创造出一个 offer【SDP 描述信息】;

5.有了 offer【SDP 描述信息】之后,就会通过应用层【Application】,通过信令,发送到远端【Send offer to the remote peer】;

【SDP描述信息】内容:有哪些音视频数据,音视频数据的格式分别是什么,传输地址是什么等;
复制代码

6.远端收到数据后,则根据 offerSDP,回复一个 answerSDP【Get answer from the remote peer】,交给本地信令;

7.信令收到远端的 answerSDP 之后,会把信息传给本地 PeerConnection【ProcessSignalingMessage】,本地 PeerConnection 就会拿到对方的媒体流信息、传输端口、传输地址;

至此,远端和本地就打通连接,可以相互传媒体数据;

8.远端数据来的时候,PeerConnection 还会将远端的流添加到 Application 中去;【OnAddStream(注意区分 AddStream)】

六:音视频流媒体开发学习路线思维地图,视频学习资料点击:音视频学习资料 获取

音视频流媒体高级开发:FFmpeg/WebRTC/RTMP/NDK/Android音视频流媒体高级开发

二:音视频开发技术点讲解学习资料点击:音视频开发学习资料 获取


用户头像

Linux服务器开发qun720209036,欢迎来交流 2020.11.26 加入

专注C/C++ Linux后台服务器开发。

评论

发布
暂无评论
WebRTC学习—WebRTC详解