写点什么

我们在学习 Spark 的时候,到底在学习什么?

用户头像
王知无
关注
发布于: 4 小时前
我们在学习Spark的时候,到底在学习什么?

我必须要说,Spark 这个框架出现之前,我对很多大数据领域的框架源码甚至都是嗤之以鼻的。


很多小伙伴在群里或者私信留言问我关于 Spark 的学习路径问题。

Spark 发展至今,应该说已经非常成熟了。是大数据计算领域不得不学习的框架。尤其是 Spark 在稳定性和社区发展的成熟度方面,基本可以吊打其他的大数据处理框架。

我之前发过一篇关于阅读 Spark 源码的文章:《Spark源码阅读的正确打开方式》

我们在这篇文章的基础上总结一下我曾经总结过的关于 Spark 的路径。如果有什么更好的资料,欢迎大家加我微信推荐给我。

Spark 的背景和核心论文

假如你是第一次接触 Spark,那么你需要对 Spark 的设计思想有所了解,知道 Spark 用了哪些抽象,Spark 在提出 RDD 的时候是基于什么样的考虑。

在这里给大家推荐几篇论文如下:

  • 第一篇:《弹性分布式数据集:一种为内存化集群计算设计的容错抽象》,链接如下:

https://fasionchan.com/blog/2017/10/19/yi-wen-tan-xing-fen-bu-shi-shu-ju-ji-yi-zhong-wei-nei-cun-hua-ji-qun-ji-suan-she-ji-de-rong-cuo-mo-xing/

这篇文章中提出了弹性分布式数据集(RDD,Resilient Distributed Datasets)这个概念,这个概念是贯穿 Spark 设计的始终,是 Spark 最重要的概念之一。RDD 是一种分布式的内存抽象,允许在大型集群上执行基于内存的计算(In-Memory Computing),与此同时还保持了 MapReduce 等数据流模型的容错特性。

这篇文章中提到,Spark 实现 RDD 在迭代计算方面比 Hadoop 快二十多倍,同时还可以在 5-7 秒的延时内交互式地查询 1TB 的数据集。

- 第二篇:《大型集群上的快速和通用数据处理架构》

这本书我不给连接了。因为这个文章长达 170 多页,堪比一篇博士论文。相信绝大多数人都是没兴趣读完的。

我在这里给出一个读后小总结:


这本书是 Spark 框架设计者–计算机科学博士 Matei Alexandru Zaharia 和加州大学伯克利分校教授、主席 Scott Shenker 撰写的。书中作者主要分析了当前流行的各种计算框架的使用场景以及他们对应的缺点,然后谈了下为什么编写了 Spark 这个框架和 spark 每个模块详细的设计理念及运行原理,这里是做一部分摘要。


  1. 随着现在需要处理的数据量越来越大,单机处理要向集群进行扩展,这就会带来三个集群维度上的问题

1)并行化:多个节点同时进行数据处理

2)容错:在多节点上处理数据,节点的故障和慢节点会变得非常常见

3)资源的动态分配:一般集群都是在多个用户之前进行切换,所以资源的动态扩展和缩减就变得非常重要


2.和 MapReduce 对比 MapReduce 做为计算引擎与 Spark 的区别在于:Spark RDD 在并行计算阶段之间能够高效的共享数据。MapReduce 计算模型中,map 结果必须要从内存落到磁盘,然后 reduce 再将数据加载到内存中,得到的结果再次落到磁盘中;如果是多个 MapReduce 操作数据,那么 reduce 结果数据还要再次加载到下一个 map 内存。正是由于数据一次次从磁盘加载到内存,所以 MapReduce 才会异常的慢。这也是 Spark 和 MapReduce 的区别,SparkRDD 能够将数据 cache 到内存中,省去了从磁盘加载的过程,同时 Spark shuffle 过程中的数据也是直接放在内存中的(为了避免 shuffle 失败 map 数据丢失 Spark 框架还对 shuffle 进行了 checkpoint),这就是为什么 spark 比 MapReduce 块的原因。Spark 解决的核心问题也就是数据流模型在计算过程中高效的共享数据 。RDD 具有可容错和并行数据结构特征,这使得用户可以指定数据存储到硬盘还是内存、控制数据的分区方法并在数据集上进行种类丰富的操作。


3.容错 一般的框架有两种容错方式,提供容错性的方法就要么是在主机之间复制数据,要么对各主机的更新情况做日志记录。


第一种容错的方式恢复时间短但需要消耗更多的内存和磁盘空间用来存储数据。


第二种方式不需要额外内存但是恢复时间比较长。这两种方法对于数据密集型的任务来说代价很高,因为它们需要在带宽远低于内存的集群网络间拷贝大量的数据,同时还将产生大量的存储开销。与上述系统不同的是,RDD 提供一种基于粗粒度变换(如, map, filter, join)的接口,该接口会将相同的操作应用到多个数据集上。这使得他们可以通过记录用来创建数据集的变换(lineage),而不需存储真正的数据,进而达到高效的容错性。当一个 RDD 的某个分区丢失的时候,RDD 记录有足够的信息记录其如何通过其他的 RDD 进行计算,且只需重新计算该分区。因此,丢失的数据可以被很快的恢复,而不需要昂贵的复制代价。


4.RDD RDD 是一个分区的只读记录的集合,用户可以控制 RDD 的其他两个方面:持久化和分区。用户可以选择重用哪个 RDD,并为其制定存储策略(比如,内存存储),也可以让 RDD 中的数据根据记录的 key 分布到集群的多个机器,这对位置优化来说是有用的,比如可用来保证两个要 Jion 的数据集都使用了相同的哈希分区方式。默认情况下,Spark 会将调用过 persist 的 RDD 存在内存中。但若内存不足,也可以将其写入到硬盘上。通过指定 persist 函数中的参数,用户也可以请求其他持久化策略并通过标记来进行 persist,比如仅存储到硬盘上,又或是在各机器之间复制一份。最后,用户可以在每个 RDD 上设定一个持久化的优先级来指定内存中的哪些数据应该被优先写入到磁盘。RDD 的第一个优点是可以使用 lineage 恢复数据,不需要检查点的开销,此外,当出现失败时,RDDs 的分区中只有丢失的那部分需要重新计算,而且该计算可在多个节点上并发完成,不必回滚整个程序 RDD 的第二个优点是,不可变性让系统像 MapReduce 那样用后备任务代替运行缓慢的任务来减少缓慢节点 (stragglers) 的影响 在 RDDs 上的批量操作过程中,任务的执行可以根据数据的所处的位置来进行优化,从而提高性能,其次,只要所进行的操作是只基于扫描的,当内存不足时,RDD 的性能下降也是平稳的。不能载入内存的分区可以存储在磁盘上,其性能也会与当前其他数据并行系统相当。RDDS 最适合对数据集中所有的元素进行相同的操作的批处理类应用。RDDS 不太适用于通过异步细粒度更新来共享状态的应用,比如针对 Web 应用或增量网络爬虫的存储系统


5.宽窄依赖 窄依赖允许在单个集群节点上流水线式执行,这个节点可以计算所有父级分区 。相反,宽依赖需要所有的父 RDD 数据可用并且数据已经通过类 MapReduce 的操作 shuffle 完成 其次,在窄依赖中,节点失败后的恢复更加高效。因为只有丢失的父级分区需要重新计算,并且这些丢失的父级分区可以并行地在不同节点上重新计算。与此相反,在宽依赖的继承关系中,单个失败的节点可能导致一个 RDD 的所有先祖 RDD 中的一些分区丢失,导致计算的重新执行。


6.Spark 的调度器会额外考虑被持久化(persist)的 RDD 的那个分区保存在内存中并可供使用,当用户对一个 RDD 执行 Action(如 count 或 save)操作时,调度器会根据该 RDD 的 lineage,来构建一个由若干 阶段(stage) 组成的一个 DAG(有向无环图)以执行程序,每个 stage 都包含尽可能多的连续的窄依赖型转换。各个阶段之间的分界则是宽依赖所需的 shuffle 操作,或者是 DAG 中一个经由该分区能更快到达父 RDD 的已计算分区。之后,调度器运行多个任务来计算各个阶段所缺失的分区,直到最终得出目标 RDD。调度器向各机器的任务分配采用延时调度机制并根据数据存储位置(本地性)来确定。若一个任务需要处理的某个分区刚好存储在某个节点的内存中,则该任务会分配给那个节点。否则,如果一个任务处理的某个分区,该分区含有的 RDD 提供较佳的位置(例如,一个 HDFS 文件),我们把该任务分配到这些位置。对应宽依赖类的操作 {比如 w shuffle 依赖),我们会将中间记录物理化到保存父分区的节点上。这和 MapReduce 物化 Map 的输出类似,能简化数据的故障恢复过程 对于执行失败的任务,只要它对应 stage 的父类信息仍然可用,它便会在其他节点上重新执行。如果某些 stage 变为不可用(例如,因为 shuffle 在 map 阶段的某个输出丢失了),则重新提交相应的任务以并行计算丢失的分区。(DAGscheduler 官方定义) 若某个任务执行缓慢 (即"落后者"straggler),系统则会在其他节点上执行该任务的拷贝。这与 MapReduce 做法类似,并取最先得到的结果作为最终的结果。


7.Spark 内存管理 Spark 提供了三种对持久化 RDD 的存储策略:未序列化 Java 对象存于内存中、序列化后的数据存于内存及磁盘存储。第一个选项的性能表现是最优秀的,因为可以直接访问在 JAVA 虚拟机内存里的 RDD 对象。在空间有限的情况下,第二种方式可以让用户采用比 JAVA 对象图更有效的内存组织方式,代价是降低了性能。第三种策略适用于 RDD 太大难以存储在内存的情形,但每次重新计算该 RDD 会带来额外的资源开销。


对于有限可用内存,我们使用以 RDD 为对象的 LRU(最近最少使用)回收算法来进行管理。当计算得到一个新的 RDD 分区,但却没有足够空间来存储它时,系统会从最近最少使用的 RDD 中回收其一个分区的空间。


除非该 RDD 便是新分区对应的 RDD,这种情况下,Spark 会将旧的分区继续保留在内存,防止同一个 RDD 的分区被循环调入调出。这点很关键–因为大部分的操作会在一个 RDD 的所有分区上进行,那么很有可能已经存在内存中的分区将会被再次使用。到目前为止,这种默认的策略在我们所有的应用中都运行很好, 当然我们也为用户提供了“持久化优先级”选项来控制 RDD 的存储。


大家可以看到,这 7 个概念都是 Spark 中最最核心的几个概念。我们在学习过程中是万万绕不过去的。

模块拆分 &学习




第一张图是官方给出的 Spark 架构图,我们可以看到几个最重要的模块:Spark Core、Spark Streaming、Spark SQL。曾经还有一个部分叫做 Structured Streaming,但是这部分好像慢慢被官方抛弃了,现在 Spark 官方主推 SQL 并且基于 Spark SQL 进行的优化和迭代非常之多。如果你是第一次接触 Spark,并且业务没有特殊需要,可以暂时忽略 Structured Streaming。此外 Spark 社区在努力的像机器学习和深度学习靠拢,Spark 在完成最初的流计算目标后开始发力机器学习方向,如果有兴趣可以接触这一部分的内容。


第二张图是一个简单的 Spark 快速学习的路线图,一些基本的 Linux 操作和运维基础,一点简单的搭建虚拟机的基础,我相信这些对大家来说都不是问题。然后我们就可以按照官网的 demo 进行第一次体验了:http://spark.apache.org/examples.html

Spark 的官网中给出了非常简单的 Spark 入门案例,同样我们也可以直接访问 Spark 在 Github 的仓库直接看更多的 Demo:

https://github.com/apache/spark/tree/master/examples/src/main/java/org/apache/spark/examples


书推荐

关于 Spark 的书,我个人读了应该有 4-5 本,每本书都没有达到我的预期,如果说你真的需要一本书来当成工具,我觉得下面的书和 Github 项目可以用来参考:

第一本书是:《大数据处理框架 Apache Spark 设计与实现》,这本书主要是介绍 Spark 的设计和原理,包含一部分源码。你可以把它当成一本八股文书来背,当然也可以当成一本指南来深入理解 Spark 的设计理念和深层次的原理。

这本书对应了一个 Github 的 Repo:

https://github.com/wangzhiwubigdata/SparkInternals



还有一本电子书:http://marsishandsome.github.io/SparkSQL-Internal/ 

是关于 Spark SQL 的,这本书写的可谓用心良苦。对 SparkSQL 的发展历程和性能的优化、SparkSQL 的使用方法、调优、架构、优化器 Catalyst 以及其他的各个模块都有详细介绍。

当然我也写过一些关于 Spark SQL 的经典文章:

《SparkSQL 整体运行架构和底层实现

《Spark SQL重点知识总结

《关于SparkSQL的开窗函数,你应该知道这些!

《SparkSQL的3种Join实现

真·屠龙之术 | 一次SparkSQL性能分析与优化之旅及相关工具小结

《SparkSQL的自适应执行-Adaptive Execution》


Github 推荐

除了上面的推荐书对应的 repo,还有一个酷玩 Spark:

https://github.com/wangzhiwubigdata/CoolplaySpark 

这个仓库是由腾讯广告部的同学发起的,主要是 Spark 源代码解析、Spark 类库等,源代码部分对 Spark Streaming 和 Structured Streaming 部分由非常深入的解释。但是这个仓库最后一次维护已经是 2019 年五月份。大家都知道 2019 年底 Flink 开源,可能抢了一部分热度,很多公司都开始转向对 Flink 的研究。

源码阅读

Spark 至今只经历过 1.x、2.x 和 3.x 三个大版本的变化,在核心实现上,我们在 Github 能看到的最早的实现是 0.5 版本,这个版本只有 1 万多行代码,就把 Spark 的核心功能实现了。

当然我们不可能从这么古老的版本看,假如你接触过 Spark,现在准备看源码,那么我建议从 2.x 版本中选取一个,最好是 2.3 或者 2.4。但是经过如此多的迭代,Spark 的代码量已经暴增了几倍。关于 Spark3.x 中的新增功能和优化例如动态资源分配,可以针对性的进行补充即可。

我把最重要的模块列表如下:

  • Spark 的初始化

SparkContext SparkEnv SparkConf RpcEnv SparkStatusTracker SecurityManager SparkUI MetricsSystem TaskScheduler

  • Spark 的存储体系

SerializerManager BroadcastManager ShuffleManager MemoryManager NettyBlockTransferService BlockManagerMaster BlockManager CacheManager

  • Spark 的内存管理

MemoryManager MemoryPool ExecutionMemoryPool StorageMemoryPool MemoryStore UnifiedMemoryManager

  • Spark 的运算体系

LiveListenerBus MapOutputTracker DAGScheduler TaskScheduler ExecutorAllocationManager OutputCommitCoordinator ContextClearner

  • Spark 的部署模式

LocalSparkCluster Standalone Mater/Executor/Worker 的容错

  • Spark Streaming

StreamingContext Receiver Dstream 窗口操作

  • Spark SQL

Catalog TreeNode 词法解析器 Parser RuleExecutor Analyzer 与 Optimizer HiveSQL 相关

  • 其他

假如你对图计算 Spark GraphX 和机器学习 Spark MLlib 感兴趣,可以单独看看。

一些可以直接入门的项目

我曾经发过一些可以直接入门的项目,大家可以参考:

这里就不得不说 B 站了,你可以在 B 站找到非常丰富的学习资源,甚至我自己也曾经上传过关于 Spark 的项目。

我这里找了一个不错的入门视频:https://www.bilibili.com/video/BV1tp4y1B7qd

另外下面这篇文章也是一个完整的入门案例:

《Spark Streaming + Canal + Kafka打造Mysql增量数据实时进行监测分析

另外,给自己打个广告,我个人从一个弱鸡资源 UP 主正式开始自己录制视频,要当一个合格的大数据领域硬核原创作者。主要专注关于面试 &学习路线 &个人成长 &职场进阶。欢迎各位大大关注:

调优和面试

这部分就是我个人曾经发过的文章总结了,大家面试不会吃亏的:

【大数据哔哔集】Spark面试题灵魂40问

《Spark Streaming性能优化: 如何在生产环境下动态应对流数据峰值

一篇并不起眼的Spark面试题

Spark数据倾斜问题解决方案全面总结

Spark常见错误问题汇总

Spark调优 | Spark SQL参数调优

三万字长文 | Spark性能优化实战手册

Spark面对OOM问题的解决方法及优化总结


好了,本次分享就到这里了。

我是王知无,一个大数据领域的硬核原创作者,关注技术提升 &个人成长 &职场进阶,欢迎关注。

发布于: 4 小时前阅读数: 3
用户头像

王知无

关注

大数据成神之路作者,全网阅读超百万。 2019.01.20 加入

《大数据成神之路》作者,全网阅读超百万。公众号:《import_bigdata》,关注大数据领域最新动态。略微懂点大数据方面的知识。

评论

发布
暂无评论
我们在学习Spark的时候,到底在学习什么?