WebRTC 学习—WebRTC 详解
目录一:
WebRTC 学习了解
(一)WebRTC 应用场景
(二)WebRTC 的难点
(三)学习流程
(四)学习目标
二:WebRTC 介绍
(一)概述
(二)WebRTC 可以实现的功能
(三)WebRTC 学习内容
三:WebRTC 原理与架构
(一)核心层解析
(二)引擎层:音频引擎、视频引擎、传输模块补充:虽然 UDP 很适合实时通讯,但是也有需要使用 TCP 的场景
四:WebRTC 目录结构
(一)主目录结构
(二)WebRTC Module 目录
五:WebRTC 运行机制
(一)轨与流(流包含多个轨)
(二)WebRTC 的重要类
(三)PeerConnection 调用过程
(四)调用时序图
六:音视频流媒体服务器学习路线总结
(一)学习路线思维导图
(二)视频学习资料
WebRTC 原理相关视频讲解:
WebRTC 音视频开发原理到实践:WebRTC音视频开发原理到实践
音视频流媒体服务器高级开发:FFmpeg/WebRTC/RTMP/NDK/Android音视频流媒体高级开发
一:WebRTC 学习了解
(一)WebRTC 应用场景
WebRTC 的愿景就是各浏览器之间可以快速开发可以实时互动的音视频的应用场景!!!
将 WebRTC 加入浏览器,使得浏览器的功能更加强大。WebRTC(Web Real-Time Communication)项目的最终目的主要是让 Web 开发者能够基于浏览器(Chrome\FireFox\...)轻易快捷开发出丰富的实时多媒体应用,而无需下载安装任何插件,Web 开发者也无需关注多媒体的数字信号处理过程,只需编写简单的 Javascript 程序即可实现,W3C 等组织正在制定 Javascript 标准 API,目前是 WebRTC 1.0 版本,Draft 状态;另外 WebRTC 还希望能够建立一个多互联网浏览器间健壮的实时通信的平台,形成开发者与浏览器厂商良好的生态环境。同时,Google 也希望和致力于让 WebRTC 的技术成为 HTML5 标准之一,可见 Google 布局之深远。
(二)WebRTC 的难点
(三)学习流程
(四)学习目标
二:WebRTC 介绍
WebRTC 与 FFmpeg 是音视频领域的两个佼佼者,两个侧重点不同,FFmpeg 侧重于多媒体文件的编辑,音视频的编解码....;WebRTC 侧重于处理网络抖动、丢包、评估以及音频处理,回音降噪等等。
(一)概述
(二)WebRTC 可以实现的功能
(三)WebRTC 学习内容
三:WebRTC 原理与架构
WebRTC 实现了基于网页的视频会议,标准是 WHATWG 协议,目的是通过浏览器提供简单的 javascript 就可以达到实时通讯(Real-Time Communications (RTC))能力。
WebRTC 整体架构主要分为两部分:
调用顺序就是从上到下!!!
(一)核心层解析
分为如下 4 层:
注意:在 webrtc 中没有对视频进行渲染处理,所以需要我们在应用中自己实现!!
(二)引擎层:音频引擎、视频引擎、传输模块
将这 3 个模块分隔开来,逻辑更加清晰。另外音视频的同步不是在引擎层实现
1.音频引擎:包含一系列音频多媒体处理的框架,包括从视频采集卡到网络传输端等整个解决方案。VoiceEngine 是 WebRTC 极具价值的技术之一,是 Google 收购 GIPS 公司后开源的。
(1)编解码器
iSAC(Internet Speech Audio Codec):针对 VoIP 和音频流的宽带和超宽带音频编解码器,是 WebRTC 音频引擎的默认的编解码器
iLBC(Internet Low Bitrate Codec):VoIP 音频流的窄带语音编解码器
(2)防止抖动与丢失
NetEQ for Voice:针对音频软件实现的语音信号处理元件
PS:NetEQ 也是 WebRTC 中一个极具价值的技术,对于提高 VoIP 质量有明显效果,加以 AEC\NR\AGC 等模块集成使用,效果更好。
(3)回音消除、降噪
Acoustic Echo Canceler (AEC) :回声消除器是一个基于软件的信号处理元件,能实时的去除 mic 采集到的回声。
Noise Reduction (NR):噪声抑制也是一个基于软件的信号处理元件,用于消除与相关 VoIP 的某些类型的背景噪声(嘶嘶声,风扇噪音等等… …)
2.视频引擎:包含一系列视频处理的整体框架,从摄像头采集视频到视频信息网络传输再到视频显示整个完整过程的解决方案。
(1)编解码器:视频图像编解码器,是 WebRTC 视频引擎的默认的编解码器
PS:VPx 编解码器是 Google 收购 ON2 公司后开源的,VPx 现在是 WebM 项目的一部分,而 WebM 项目是 Google 致力于推动的 HTML5 标准之一
(2)视频抖动缓冲器:Video Jitter Buffer,可以降低由于视频抖动和视频信息包丢失带来的不良影响。
(3)图像质量增强模块:Image enhancements,对网络摄像头采集到的图像进行处理,包括明暗度检测、颜色增强、降噪处理等功能,用来提升视频质量。
3.传输:底层使用 UDP,上层使用 RTP。所有的音视频的接收与发送,都是通过传输模块实现的。此外在传输层实现了网络链路的检测,进行网络带宽的估计,从而对(音视频、非音视频)数据的传输进行控制。
补充:虽然 UDP 很适合实时通讯,但是也有需要使用 TCP 的场景
连通性 TCP 要优于 UDP,假如国内外通信,可能某些区域不允许通过 UDP 进行实时传输。为了保证连通率,优先选择 UDP,如果 UDP 无法通信,则选择 TCP,以此来保证连通率。
当然,也存在部分情况,TCP 依旧不通,比如通过企业内部网访问,网关拒绝访问外网,这时可以使用 Https。这时不太保证实时性了
四:WebRTC 目录结构
(一)主目录结构
(二)WebRTC Module 目录
五:WebRTC 运行机制
(一)轨与流(流包含多个轨)
轨:比如一路音频,就是一路轨;一路视频,也是一路轨。两条轨之间是不相交的,单独存放!!两路音频也是两路轨,也是不相交的
流:媒体流,内部包含了很多轨,两者属于层级关系
(二)WebRTC 的重要类
(三)PeerConnection 调用过程
PeerConnection 中包含两个线程,Worker 线程和 Signaling 线程,可以创建 PeerConnectionFactory,
之后 PerrConnectionFactory 可以创建 PeerConnection 和 LocalMediaStream 和 LocalVideo/AudioTrack
通过 AddTrack 将我们创建的多个 Track 轨加入到 MediaStream 流中,通过 AddStream 可以将多个 MediaStream 流(与多方通信,每一方(每一个参与单位)都是对应一个 Stream)加入同一个 PeerConnection 中(复用),
(四)调用时序图
1.首先应用层 Application【注意这里 Application 本身就是一个 PeerConnectionObserver】,创建出一个 PeerConnectionFactory【CreatePeerConnectionFactory】;
2.PeerConnectionFactory 触发 CreatePeerConnection、CreateLocalMediaStream、CreateLocalVideoTrack、CreateLocalAudioTrack 创建了 PeerConnection、MediaStream 等等实例;
3.然后通过 AddTrack,把各种轨(track)加到流(LocalMediaStream)中去,然后通过 AddStream,把流加到 PeerConnection 中;
4.流加到连接之后,会通过 CommitStreamChanges 提交流的变化;当流发生变化的时候,会触发 OnSignalingMessage 事件,创造出一个 offer【SDP 描述信息】;
5.有了 offer【SDP 描述信息】之后,就会通过应用层【Application】,通过信令,发送到远端【Send offer to the remote peer】;
6.远端收到数据后,则根据 offerSDP,回复一个 answerSDP【Get answer from the remote peer】,交给本地信令;
7.信令收到远端的 answerSDP 之后,会把信息传给本地 PeerConnection【ProcessSignalingMessage】,本地 PeerConnection 就会拿到对方的媒体流信息、传输端口、传输地址;
至此,远端和本地就打通连接,可以相互传媒体数据;
8.远端数据来的时候,PeerConnection 还会将远端的流添加到 Application 中去;【OnAddStream(注意区分 AddStream)】
六:音视频流媒体开发学习路线思维地图,视频学习资料点击:音视频学习资料 获取
音视频流媒体高级开发:FFmpeg/WebRTC/RTMP/NDK/Android音视频流媒体高级开发
二:音视频开发技术点讲解学习资料点击:音视频开发学习资料 获取
评论