技术干货 | 录屏采集实现教程 —— Android 端
本系列为即构科技与「极客时间-每日一课」栏目共同打造的深度技术分享内容,视频发布于「极客时间 app-每日一课」栏目。
视频地址:
https://time.geekbang.org/dailylesson/detail/100056832
概述
在视频会议、线上课堂、游戏直播等场景下,屏幕共享是一个最常被用到的功能。要实现对屏幕画面的实时共享,端到端主要有这几个步骤:录屏采集、视频编码、实时传输、视频解码、视频渲染。
一般来说,实时屏幕共享时,共享发起端以固定采样频率(一般 8 - 15 帧)抓取到屏幕中指定源的画面(包括指定屏幕、指定区域、指定程序等),经过视频编码压缩(选择保持文本/图形边缘信息不失真的方案)后,在实时网络上以相应的帧率分发。
因此,录屏采集是实现实时屏幕共享的基础。即构作为专业的音视频云服务商,对于实时屏幕共享有一套完整的流程体系和 API 封装,让开发者可以更加方便快捷地拥有录屏直播的能力。
下面我们将介绍基于不同端,实现录屏采集的方法。本篇为您详解 Android 端录屏采集实现教程。
原理
在分享如何实现 Android 系统录屏采集前,我们先来看看其背后的原理。
Android 在 4.4 版本前要实现屏幕录制必须获取到 root 权限,但目前大部分设备的系统版本都高于 4.4,因此这种情况在此就不作赘述。
在 5.0 及以上版本,我们可以利用系统提供的 MediaProjection 和 MediaProjectionManager 进行屏幕录制,可以不需要获取 root 权限,但会弹窗获取权限,需要用户同意才行。
那么在 Android5.0 及以上版本,我们使用 MedaProjection 是如何把屏幕的数据录制下来呢?
这里我们就要说到两个“助攻的小伙伴”了——Surface 和 VirtualDisplay。
1、Surface
Google 官网对 Surface 的定义是:Surface 就是屏幕数据消费者(如 SurfaceTexture,MediaRecorder,Allocation)提供给屏幕数据的生产者(如 OpenGL,MediaPlayer,CameraDevice)的一块数据缓冲区,生产者们可以在 Surface 上进行图像内容的生产,消费者们会把生产出来的数据消费到屏幕上面(绘制出来)或者是转换成消费者所希望的数据。
2、VirtualDisplay
顾名思义,这个便是系统提供的一个虚拟屏幕,我们采用 MediaProjection 进行录制,就需要创建这样一个 VirturalDisplay 。那么,这个 VirturalDisplay 和 Surface 有什么关联呢?属于生产者还是消费者呢?
答案非常明显,VirturalDisplay 属于生产者,因为 VirturalDisplay 是系统的一个虚拟屏幕,其内容可以理解为手机物理屏幕的拷贝,只是仅存在于内存中,而没有绘制出来,所以我们无法看到这个屏幕而已,那么既然是手机屏幕的镜像,相对于屏幕录制的整个架构来说,自然就是生产者了。
OK,现在清楚了这两个助攻的小伙伴的特点,我们还要思考一个问题,现在缓冲区有了,生产者有了,那消费者呢??屏幕数据应该给谁消费呢?
这就涉及到了场景问题。Android 允许我们把屏幕数据通过 MediaRecorder 录制下来然后保存,也允许我们把屏幕数据录制下来通过 MediaCodec 进行编码,然后传输出去。
因此根据上面的原理,我们可以画出以下屏幕采集的整体架构图:
实现
上面我们已经清楚了整个屏幕录制的原理,那么在代码层面,我们应当如何实现呢?主要分为以下几步:
第一步,申请权限。在 AndroidManifest 加上申请权限的代码,因为我们需要用到音频录制。
第二步,获取系统服务。通过 MediaProjectionManager 获取一个系统服务,这个系统服务需要获取用户授权:
MediaProjectionManager 是系统提供的一个录屏服务,在使用上和其他的系统服务没有太大的区别,都是通过 getSystemService 获取对应的服务。
第三步,创建 Intent 跳转服务。MediaProjectManager 已经封装了获取 Intent 的方法 createScreenCaptureIntent, 拿到 Intent 之后,当调用 startActivityForResult 方法时,会触发一个请求授权的弹窗,当用户同意授权或者拒绝授权,都会通过 onActivityResult 返回。
第四步,监听 onActivityResult 根据用户授权返回的结果获取 MediaProjection
在这里我们才是获取到了真正的屏幕录制操作对象—— MediaProjection,接下来我们就需要通过这个对象去开启屏幕录制。
第五步,创建虚拟屏幕。我们已经获取到了 MediaProjection,接下来就是要创建一个虚拟屏幕——VirtualDisplay,这一步是屏幕录制的关键所在,我们先来看看 MediaProject 官网的 API 是如何创建一个 VirtualDIsplay 的,重点看看参数的定义。
对于创建虚拟屏幕的 API ,其他参数可以先忽略,但其中有两个参数我们需要注意,一个是 Surface surface ,一个是 int Flag 。
首先是 int Flag ,从这个参数的命名上来看,我们知道这是一个标志位,从 Android 的习惯来看,这个标志位可以传递什么参数呢?我们看看注释。
根据注释,我们可以看到 DisplayManager 提供了以下相关的 Flag:
那么,提供的这几个 Flag 有什么区别呢?
VIRTUAL_DISPLAY_FLAG_AUTO_MIRROR:当没有内容显示时,允许将内容镜像到专用显示器上。
VIRTUAL_DISPLAY_FLAG_OWN_CONTENT_ONLY:仅显示此屏幕的内容,不镜像显示其他屏幕的内容。
VIRTUAL_DISPLAY_FLAG_PRESENTATION:创建演示文稿的屏幕。
VIRTUAL_DISPLAY_FLAG_PUBLIC:创建公开的屏幕。
VIRTUAL_DISPLAY_FLAG_SECURE:创建一个安全的屏幕
一般如果没有特殊的需求,我们将这个 Flag 设置为 VIRTUAL_DISPLAY_FLAG_PUBLIC 就可以了,这样就可以获取到屏幕的数据了。
然后是 Surface ,这不就是我们前面说的助攻小伙伴嘛。我们前面说过了,这个 Surface 是由消费者去创建的。因此,这时候就要想想我们的消费者是什么?我们的场景是什么?是要录制成文件还是编码成数据传输出去实现录屏直播呢?
当然…… 这个终极问题最后可能是要产品经理来决定……
1、屏幕录制保存(MediaRecoder)
好了,假设现在产品经理已经明确表示,需求场景是把屏幕录制成文件保存下来,就像现在很多市面上的屏幕录制 APP 一样。那我们应该怎么做呢?
其实很简单,我们只需要想一下,有没有什么 API 是可以将图像数据录制保存成文件的呢?
Android 官方就已经有提供了一个工具供我们使用,那就是 MediaRecoder ,重点是 MediaRecoder 可以通过 getSurface 对外提供一个 Surface,而这个 Surface 刚好是 VirtualDisplay 所需要的,所以整个调用链和 API 我们可以理清楚了,如下图。而数据的流向则是相反的,从 VirturalDisplay -> Surface -> MediaRecoder(绿色箭头表示数据的流向)。
那么 MediaRecoder 要怎么使用呢?MediaRecoder 不仅可以录制视频画面,还可以录制音频。下面提供了如何设置 MediaRecoder 的代码。最后,只要调用一下 mediaRecorder.start() 就会启动录制,并将录制好的视频画面和 MIC 采集到的声音保存到我们定义的文件中。
2、录屏直播
如果此时产品经理突然要改需求,想把录制成文件改成录屏直播...
那我们就要改变方案了,把数据的消费者 MediaRecorder 换成其他可以编码的工具,比如 Android 自带的硬件编码 MediaCodec 或者大名鼎鼎的 FFmpeg。但是数据的生产者不会变,依然是 VirtualDisplay,数据缓冲依旧是 Surface。
以 MediaCodec 为例,关于 MediaRecoder 的流程图则变为:
MediaCodec 作为 Android 系统提供的硬编/硬解能力,本身便可作为一次专题进行分享。因此,这里不会太深入的分享关于 MediaCodec 的功能和使用方式,只是作为一个消费者的角度和我们的屏幕录制直播方案进行分享。
延伸
通过以上内容我们知道,MediaRecoder 支持录制 MIC 采集的音频数据和 MediaProjection 提供的屏幕画面数据。然而 MediaProjection 不能提供音频数据,如果我们想通过 MediaRecoder 录制 MediaProjection 提供的屏幕画面数据加上非 MediaRecoder 指定的音频源呢?比如我们录制一个游戏视频,但是想加入对应的音频,类似于王者荣耀的精彩片段加上特定音效,要如何实现呢?
其实只要我们在一开始录制的时候,不设置 MediaRecoder 的音频源,然后再利用其他工具,把音频源剪辑进去就可以了。比如大名鼎鼎的 FFmpeg 就是音视频剪辑的好手。但是,FFmpeg 对于上手是有一定的门槛和难度的,想要自己编译一个稳定可靠好用的 FFmpeg 库可不是那么简单的,并且为了加上一个录制音频的功能,大大增加我们 APK 的体积,也是因小失大的。
那么,还有其他的办法可以实现吗?答案是肯定的。
Android 系统提供了原生的 MediaExtractor 类,给音视频混合提供了相对比较简单易操作的方法,那么,使用 MediaExtractor 应该注意什么呢?
MediaExtractor 可以把音频和视频源剪辑到一起,我们可以理解为两条不同的轨道——音频轨和视频轨,把他们混在一起,其中最重要的自然是混合在一起的时间戳。因此,在剪辑的时候,除非可以明确的确定音频的开始时间在视频的某个详细时间点,否则,建议将音频和视频全部置回开始的时候,然后再开始混合。
总结
最后,我们来总结一下 Android 端录屏采集实现的主要内容。
首先,从原理上要了解
MediaProjectionManager 和 MediaProjection 这两个安卓系统用来提供录屏能力的系统服务,以及两个助攻的小伙伴——数据缓冲区 Surface 和虚拟屏幕 VirtualDisplay;
其次,介绍了如何实现录屏采集的两个使用场景:录制并保存(屏幕录制)和录制并编码(屏幕直播);
最后,延伸了如何在屏幕录制并保存的同时,混入非环境背景音的音频。
最后的最后,记得在不使用的时候,释放使用到的 API 哦!!
版权声明: 本文为 InfoQ 作者【ZEGO即构】的原创文章。
原文链接:【http://xie.infoq.cn/article/dd40cd5d753c896225063f696】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论