写点什么

【淘系技术】超详解析 Flutter 渲染引擎 _ 业务想创新,不了解底层原理怎么行

用户头像
Android架构
关注
发布于: 2021 年 11 月 07 日

1-4 跟渲染没有直接关系,主要就是管理 UI 组件生命周期,页面结构以及 Flex layout 等相关实现,本文不作深入分析。 5-8 为渲染相关流程,其中 5-6 在 UI 线程中执行,产物为包含了渲染指令的 Layer tree,在 Dart 层生成,可以认为是整个渲染流程的前半部,属于生产者角色。 7-8 把 dart 层生成的 Layer Tree,通过 window 透传到 Flutter engine 的 C++代码中,通过 flow 模块来实现光栅化并合成输出。可以认为是整个渲染流程的后半部,属于消费者角色。 下图为 Android 平台上渲染一帧 Flutter UI 的运行时序图:



具体的运行时步骤:


  • Flutter 引擎启动时,向系统的 Choreographer 实例注册接收 Vsync 的回调。

  • 平台发出 Vsync 信号后,上一步注册的回调被调用,一系列调用后,执行到 VsyncWaiter::fireCallback。

  • VsyncWaiter::fireCallback 实际上会执行 Animator 类的成员函数 BeginFrame。

  • BeginFrame 经过一系列调用执行到 Window 的 BeginFrame,Window 实例是连接底层 Engine 和 Dart framework 的重要桥梁,基本上所以跟平台相关的操作都会由 Window 实例来串联,包括事件,渲染,无障碍等。

  • 通过 Window 的 BeginFrame 调用到 Dart Framework 的 RenderBinding 类,其有一个方法叫 drawFrame ,这个方法会去驱动 UI 上的 dirty 节点进行重排和绘制,如果遇到图片的显示,会丢到 IO 线程以及去 worker 线程去执行图片加载和解码,解码完成后,再次丢到 IO 线程去生成图片纹理,由于 IO 线程和 GPU 线程是 share GL context 的,所以在 IO 线程生成的图片纹理在 GPU 线程可以直接被 GPU 所处理和显示。

  • Dart 层绘制所产生的绘制指令以及相关的渲染属性配置都会存储在 LayerTree 中,通过 Animator::RenderFrame 把 LayerTree 提交到 GPU 线程,GPU 线程拿到 LayerTree 后,进行光栅化并做上屏操作(关于 LayerTree 我们后面会详细讲解)。之后通过 Animator::RequestFrame 请求接收系统下一次的 Vsync 信号,这样又会从第 1 步开始,循环往复,驱动 UI 界面不断的更新。


分析了整个 Flutter 底层引擎总体运行流程,下面会相对详细的分析上述渲染流水线中涉及到的相关概念以及细节知识,大家可以根据自己的情况选择性的阅读。

线程模型

要了解 Flutter 的渲染管线,必须要先了解 Flutter 的线程模型。从渲染引擎的视角来看,Flutter 的四个线程的职责如下:



  • Platform 线程:负责提供 Native 窗口,作为 GPU 渲染的目标。接受平台的 VSync 信号并发送到 UI 线程,驱动渲染管线运行。

  • UI 线程:负责 UI 组件管理,维护 3 颗树,Dart VM 管理,UI 渲染指令生成。同时负责把承载渲染指令的 LayerTree 提交给 GPU 线程去光栅化。

  • GPU 线程:通过 flow 模块完成光栅化,并调用底层渲染 API(opengl/vulkan/meta),合成并输出到屏幕。

  • IO 线程:包括若干 worker 线程会去请求图片资源并完成图片解码,之后在 IO 线程中生成纹理并上传 GPU ,由于通过和 GPU 线程共享 EGL Context,在 GPU 线程中可以直接使用 IO 线程上传的纹理,通过并行化,提高渲染的性能 后面介绍的概念都会贯穿在这四个线程当中,关于线程模型的更多信息可以参考下面两篇文章:


《深入了解 Flutter 引擎线程模型》


《The Engine architecture》

VSync

Flutter 引擎启动时,向系统的 Choreographer 实例注册接收 Vsync 的回调函数,GPU 硬件发出 Vsync 后,系统会触发该回调函数,并驱动 UI 线程进行 layout 和绘制。


@ shell/platform/android/io/flutter/view/VsyncWaiter.java


private final FlutterJNI.AsyncWaitForVsyncDelegate asyncWaitForVsyncDelegate = new FlutterJNI.AsyncWaitForVsyncDelegate() {@Overridepublic void asyncWaitForVsync(long cookie) {Choreographer.getInstance().postFrameCallback(new Choreographer.FrameCallback() {@Overridepublic void doFrame(long frameTimeNanos) {float fps = windowManager.getDefaultDisplay().getRefreshRate();long refreshPeriodNanos = (long) (1000000000.0 / fps);FlutterJNI.nativeOnVsync(frameTimeNanos, frameTimeNanos + refreshPeriodNanos, cookie);}});}}


下图为 Vsync 触发时的调用栈:



在 Android 上,Java 层收到系统的 Vsync 的回调后通过 JNI 发给 Flutter engine,之后通过 Animator,Engine 以及 Window 等对象路由调回 dart 层,驱动 dart 层进行 drawFrame 的操作。在 Dart framework 的 RenderingBinding::drawFrame 函数中会触发对所有 dirty 节点的 layout/paint/compositor 相关的操作,之后生成 LayerTree,再交由 Flutter engine 光栅化并合成。


//@rendering/binding.dartvoid drawFrame() {assert(renderView != null);pipelineOwner.flushLayout();pipelineOwner.flushCompositingBits();pipelineOwner.flushPaint();renderView.compositeFrame(); // this sends the bits to the GPUpipelineOwner.flushSemantics(); // this also sends the semantics to the OS.}

图层

在 Dart 层进行 drawFrame 对 dirty 节点进行排版后,就会对需要重新绘制的节点进行绘制操作。而我们知道 Flutter 中 widget 是一个 UI 元素的抽象描述,绘制时,需要先将其 inflate 成为 Element,之后生成对应的 RenderObject 来负责驱动渲染。通常来讲,一个页面的所有的 RenderObject 都属于一个图层,Flutter 本身没有图层的概念,这里所说的图层可以粗暴理解成一块内存 buffer,所有属于图层的 RenderObject 都应该被绘制在这个图层对应的 buffer 中去。


如果这个 RenderObject 的 RepaintBoundary 属性为 true 时,就会额外生成一个图层,其所有的子节点都会被绘制在这个新的图层上,最后所有图层有 GPU 来负责合成并上屏。


Flutter 中使用 Layer 的概念来表示一个层次上的所有 RenderObject,Layer 和图层存在 N:1 的对应关系。根节点 RenderView 会创建 root Layer,一般是一个 Transform Layer,并包含多个子 Layer,每个子 Layer 又会包含若干 RenderObject,每个 RenderObject 绘制时,会产生相关的绘制指令和绘制参数,并存储在对应的 Layer 上。


可以参考下面 Layer 的类图,Layer 实际上主要用来组织和存储渲染相关的指令和参数,比如 Transform Layer 用来保存图层变换的矩阵,ClipRectLayer 包含图层的剪切域大小,PlatformViewLayer 包含同层渲染组件的纹理 id,PictureLayer 包含 SkPicture(SkPicture 记录了 SkCanvas 绘制的指令,在 GPU 线程的光栅化过程中会用它来做光栅化)


渲染指令

当渲染第一帧的时候,会从根节点 RenderView 开始,逐个遍历所有的子节点进行绘制操作。


//@rendering/view.dart//绘制入口,从 view 根节点开始,逐个绘制所有子节点 @overridevoid paint(PaintingContext context, Offset offset) {if (child != null)context.paintChild(child, offset);}


我们可以具体看看一个节点如何绘制的:


  1. 创建 Canvas。绘制时会通过 PaintContex 获取的 Canvas 进行,其内部会去创建一个 PictureLayer,并通过 ui.PictrureRecorder 调用到 C++层来创建一个 Skia 的 SkPictureRecorder 实例,再通过 SkPictureRecorder 创建 SkCanvas,最后把这个 SkCanvas 返回给 Dart 层去使用.


//@rendering/object.dart


@overrideCanvas get canvas {if (_canvas == null)_startRecording();return _canvas;}


void _startRecording() {assert(!_isRecording);_currentLayer = PictureLayer(estimatedBounds);_recorder = ui.PictureRecorder();_canvas = Canvas(_recorder);_containerLayer.append(_currentLayer);}


  1. 通 过 Canvas 执行具体绘制。Dart 层拿到绑定了底层 SkCanvas 的对象后,用这 Canvas 进行具体的绘制操作,这些绘制命令会被底层的 SkPictureRecorder 记录下来。

  2. 结束绘制,准备上屏。绘制完毕时,会调 用 Canvas 对象的 stopRecordingIfNeeded 函数,它会最后会去调用 到 C++ 的 SkPictureRecorder 的 endRecording 接口来生成一个 Picture 对象,存储在 PictureLayer 中。


//@rendering/object.dartvoid stopRecordingIfNeeded() {if (!_isRecording)return;_currentLayer.picture = _recorder.endRecording();_currentLayer = null;_recorder = null;_canvas = null;}


这 Picture 对象对应 Skia 的 SkPicture 对象,存储这所有的绘制指令。有兴趣可以看一下 SkPicture 的官方说明。


所有的 Layer 绘制完成形成 LayerTree,在 renderView.compositeFrame() 中通过 SceneBuilder 把 Dart Layer 映射为 Flutter engine 中的 flow::Layer ,同时也会生成一颗 C++ 的 flow::LayerTree ,存储在 Scene 对象中,最后通过 Window 的 render 接口提交给 Flutter engine。


//@rendering/view.dartvoid compositeFrame() {...final ui.SceneBuilder builder = ui.SceneBuilder();final ui.Scene scene = layer.buildScene(builder);_window.render(scene);scene.dispose();}


在全部绘制操作完成后,在 Flutter engine 中就形成了一颗 flow::LayerTree,应该是像下面的样子:



这颗包含了所有绘制信息以及绘制指令的 flow::LayerTree 会通过 window 实例调用到 Animator::Render 后,最后在 Shell::OnAnimatorDraw 中提交给 GPU 线程,并进行光栅化操作,代码可以参考:


@shell/common/animator.cc/Animator::Render


@shell/common/shell.cc/Shell::OnAnimatorDraw


这里提一下 flow 这个模块,flow 是一个基于 skia 的合成器,它可以基于渲染指令来生成像素数据。Flutter 基于 flow 模块来操作 Skia,进行光栅化以及合成。

图片纹理

前面讲线程模型的时候,我们提到过 IO 线程负责图片加载以及解码并且把解码后的数据上传到 GPU 生成纹理,这个纹理在后面光栅化过程中会用到,我们来看一下这部分的内容。



UI 线程加载图片的时候,会在 IO 线程调用 InstantiateImageCodec* 函数调用到 C++层来初始化图片解码库,通过 skia 的自带的解码库解码生成 bitmap 数据后,调用 SkImage::MakeCrossContextFromPixmap 来生成可以在多个线程共享的 SkImage,在 IO 线程中用它来生成 GPU 纹理。


//@flutter/lib/ui/painting/codec.ccsk_sp<SkImage> MultiFrameCodec::GetNextFrameImage(fml::WeakPtr<GrContext> resourceContext) {...// 如果 resourceContext 不为空,就会去创建一个 SkImage,// 并且这个 SkImage 是在 resouceContext 中的,if (resourceContext) {SkPixmap pixmap(bitmap.info(), bitmap.pixelRef()->pixels(),bitmap.pixelRef()->rowBytes());// This indicates that we do not want a "linear blending" decode.sk_sp<SkColorSpace> dstColorSpace = nullptr;return SkImage::MakeCrossContextFromPixmap(resourceContext.get(), pixmap,false, dstColorSpace.get());} else {// Defer decoding until time of draw later on the GPU thread. Can happen// when GL operations are currently forbidden such as in the background// on iOS.return SkImage::MakeFromBitmap(bitmap);}}


我们知道,OpenGL 的环境是线程不安全的,在一个线程生成的图片纹理,在另外一个线程里面是不能直接使用的。但由于上传纹理操作比较耗时,都放在 GPU 线程操作,会减低渲染性能。目前 OpenGL 中可以通过 share context 来支持这种多线程纹理上传的,所以目前 flutter 中是由 IO 线程做纹理上传,GPU 线程负责使用纹理。


基本的操作就是在 GPU 线程创建一个 EGLContextA,之后把 EGLContextA 传给 IO 线程,IO 线程在通过 EGLCreateContext 在创建 EGLContextB 的时候,把 EGLContextA 作为 shareContext 的参数,这样 EGLContextA 和 EGLContextB 就可以共享纹理数据了。


具体相关的代码不一一列举了,可以参考:


@shell/platform/android/platformviewandroid.cc/CreateResourceContext


@shell/platform/android/androidsurfacegl.cc/ResourceContextMakeCurrent


@shell/platform/android/androidsurfacegl.cc/AndroidSurfaceGL


@shell/platform/android/androidsurfacegl.cc/SetNativeWindow


关于图片加载相关流程,可以参考这篇文章:TODO

光栅化与合成

把绘制指令转化为像素数据的过程称为光栅化,把各图层光栅化后的数据进行相关的叠加与特效相关的处理成为合成这是渲染后半段的主要工作。


前面也提到过,生成 LayerTree 后,会通过 Window 的 Render 接口把它提交到 GPU 线程去执行光栅化操作,大体流程如下:



1-4 步,在 UI 线程执行,主要是通过 Animator 类把 LayerTree 提交到 Pipeline 对象的渲


《Android学习笔记总结+最新移动架构视频+大厂安卓面试真题+项目实战源码讲义》
浏览器打开:qq.cn.hn/FTe 免费领取
复制代码


染队列,之后通过 Shell 把 pipeline 对象提交给 GPU 线程进行光栅化,不具体展开,代码在 animator.cc&pipeline.h


5-6 步,在 GPU 线程执行具体的光栅化操作。这部分主要分为两大块,一块是 Surface 的管理。一块是如何把 Layer Tree 里面的渲染指令绘制到之前创建的 Surface 中。


可以通过下图了解一下 Flutter 中的 Surface,不同类型的 Surface,对应不同的底层渲染 API。



我们以 GPUSurfaceGL 为例,在 Flutter 中,GPUSurfaceGL 是对 Skia GrContext 的一个管理和封装,而 GrContext 是 Skia 用来管理 GPU 绘制的一个上下文,最终都是借助它来操作 OpenGL 的 API 进行相关的上屏操作。在引擎初始化时,当 FlutterViewAndroid 创建后,就会创建 GPUSurfaceGL,在其构造函数中会同步创建 Skia 的 GrContext。


光栅化主要是在函数 Rasterizer::DrawToSurface 中实现的:


//@shell/rasterizer.ccRasterStatus Rasterizer::DrawToSurface(flutter::LayerTree& layer_tree) {FML_DCHECK(surface_);...if (compositor_frame) {//1.执行光栅化 RasterStatus raster_status = compositor_frame->Raster(layer_tree, false);if (raster_status == RasterStatus::kFailed) {return raster_status;}//2.合成 frame->Submit();if (external_view_embedder != nullptr) {external_view_embedder->SubmitFrame(surface_->GetContext());

用户头像

Android架构

关注

还未添加个人签名 2021.10.31 加入

还未添加个人简介

评论

发布
暂无评论
【淘系技术】超详解析Flutter渲染引擎_业务想创新,不了解底层原理怎么行