写点什么

面试系列一:精选大数据面试真题 10 道(混合型)- 附答案详细解析

发布于: 2021 年 02 月 22 日

公众号(五分钟学大数据)将推出大数据面试系列文章—五分钟小面试,此系列文章将会深入研究各大厂笔面试真题,并根据笔面试题扩展相关的知识点,助力大家都能够成功入职大厂!



大数据笔面试系列文章分为两种类型:混合型(即一篇文章中会有多个框架的知识点—融会贯通);专项型(一篇文章针对某个框架进行深入解析—专项演练)。


此篇文章为系列文章的第一篇(混合型)


第一题:大数据笔试题-Java 相关(美菜网)


写出下列程序的输出:
class Father{    static {        System.out.println("Static Father");    }    {        System.out.println("Non-static Father");    }    public Father(){        System.out.println("Constructor Father");    }}public class Son extends Father{    static {        System.out.println("Static Son");    }    {        System.out.println("Non-static Son");    }    public Son(){        System.out.println("Constructor Son");    }    public static void main(String[] args) {        System.out.println("First Son");        new Son();        System.out.println("Second Son");        new Son();    }}
复制代码

运行结果:

Static FatherStatic SonFirst SonNon-static FatherConstructor FatherNon-static SonConstructor SonSecond SonNon-static FatherConstructor FatherNon-static SonConstructor Son
复制代码

分析:


这道程序题考察的是 Java 中的静态代码块、构造代码块、构造函数的概念。


  • 静态代码块 static {}


随着类的加载而执行,即 JVM 加载类后就执行,而且只执行一次,执行优先级高于非静态的初始化块,它会在类初始化的时候执行一次,执行完成便销毁,它仅能初始化类变量,即 static 修饰的数据成员。


  • 非静态代码块,也称构造代码块 {}


执行的时候如果有静态代码块,先执行静态代码块再执行非静态代码块,在每个对象生成时都会被执行一次,它可以初始化类的实例变量。非静态代码块会在构造函数执行时,在构造函数主体代码执行之前被运行


  • 构造函数


对象一建立,就会调用与之相应的构造函数,也就是说,不建立对象,构造函数是不会运行的。

一个对象建立,构造函数只运行一次,而一般方法可以被该对象调用多次。


再来看本题,程序运行,执行 main()方法会先加载 main()方法所在的类,加载 Son 类,但是 Son 类继承自 Father 类,所以先加载父类,同时父类的静态代码块执行,然后加载 Son 类本身,Son 类自己的静态代码块开始执行,类加载完成之后执行 main()方法内部的语句,打印 First Son,然后 new Son(),在创建对象时先构造父类的对象,因为静态代码块只在类加载时执行一次,所以不再执行,然后执行父类的构造代码块,构造函数,构造代码块的优先级大于构造函数。然后在执行 Son 对象本身。完成之后打印 Second Son,接着又 new Son(),重复以上步骤。构造代码块和构造函数在每次 new 的时候都会执行一次


第二题:大数据面试题-JVM 相关(丰巢科技)


问:解释内存中的栈(stack)、堆(heap)和静态存储区的用法?


答:通常我们定义一个基本数据类型的变量,一个对象的引用,还有就是函数调用的现场保存都使用内存中的栈空间;而通过 new 关键字和构造器创建的对象放在堆空间;程序中的字面量(literal)如直接书写的 100、“hello”和常量都是放在静态存储区中。栈空间操作最快但是也很小,通常大量的对象都是放在堆空间,整个内存包括硬盘上的虚拟内存都可以被当成堆空间来使用。


String str = new String(“hello”);


上面的语句中 str 放在栈上,用 new 创建出来的字符串对象放在堆上,而“hello”这个字面量放在静态存储区。


补充:较新版本的 Java 中使用了一项叫“逃逸分析“的技术,可以将一些局部对象放在栈上以提升对象的操作性能。(在 Java SE 6u23+ 开始支持,并默认设置为启用状态,可以不用额外加这个参数。)


第三题:大数据面试题-海量数据相关(腾讯)

问:给 40 亿个不重复的 unsigned int 的整数,没排过序的,然后再给一个数,如何快速判断这个数是否在那 40 亿个数当中?


答:方案 1:申请 512M 的内存,512M 是 42 亿多 bit,一个 bit 位代表一个 unsigned int 值。读入 40 亿个数,设置相应的 bit 位,读入要查询的数,查看相应 bit 位是否为 1,为 1 表示存在,为 0 表示不存在。


方案 2:这个问题在《编程珠玑》里有很好的描述,大家可以参考下面的思路,探讨一下: 因为 2^32 为 42 亿多,所以给定一个数可能在,也可能不在其中; 这里我们把 40 亿个数中的每一个用 32 位的二进制来表示 ,假设这 40 亿个数开始放在一个文件中。 然后将这 40 亿个数分成两类:


  1. 最高位为 0

  2. 最高位为 1


并将这两类分别写入到两个文件中,其中一个文件中数的个数<=20 亿,而另一个>=20 亿(相当于折半); 与要查找的数的最高位比较并接着进入相应的文件再查找

然后再把这个文件为又分成两类:

  1. 次最高位为 0

  2. 次最高位为 1


并将这两类分别写入到两个文件中,其中一个文件中数的个数<=10 亿,而另一个>=10 亿(相当于折半); 与要查找的数的次最高位比较并接着进入相应的文件再查找。

.....

以此类推,就可以找到了,而且时间复杂度为 O(logn)。


第四题:大数据面试题-Hadoop 相关(阿里)

问:MapReduce 中排序发生在哪几个阶段?这些排序是否可以避免?为什么?


答:

  1. 一个 MapReduce 作业由 Map 阶段和 Reduce 阶段两部分组成,这两阶段会对数据排序,从这个意义上说,MapReduce 框架本质就是一个 Distributed Sort。


  1. 在 Map 阶段,Map Task 会在本地磁盘输出一个按照 key 排序(采用的是快速排序)的文件(中间可能产生多个文件,但最终会合并成一个),在 Reduce 阶段,每个 Reduce Task 会对收到的数据排序(采用的是归并排序),这样,数据便按照 Key 分成了若干组,之后以组为单位交给 reduce 处理。


  1. 很多人的误解在 Map 阶段,如果不使用 Combiner 便不会排序,这是错误的,不管你用不用 Combiner,Map Task 均会对产生的数据排序(如果没有 Reduce Task,则不会排序,实际上 Map 阶段的排序就是为了减轻 Reduce 端排序负载)。


  1. 由于这些排序是 MapReduce 自动完成的,用户无法控制,因此,在 hadoop 1.x 中无法避免,也不可以关闭,但 hadoop2.x 是可以关闭的。


第五题:大数据面试题-Kafka 相关(商汤科技)

问:kafka 数据分区和消费者的关系,kafka 的数据 offset 读取流程,kafka 内部如何保证顺序


答:

  1. kafka 数据分区和消费者的关系:1 个 partition 只能被同组的⼀一个 consumer 消费,同组的 consumer 则起到均衡效果


  1. kafka 的数据 offset 读取流程:

- 连接 ZK 集群,从 ZK 中拿到对应 topic 的 partition 信息和 partition 的 Leader 的相关信息

- 连接到对应 Leader 对应的 broker

- consumer 将⾃自⼰己保存的 offset 发送给 Leader

- Leader 根据 offset 等信息定位到 segment(索引⽂文件和⽇日志⽂文件)

- 根据索引⽂文件中的内容,定位到⽇日志⽂文件中该偏移量量对应的开始位置读取相应⻓长度的数据并返回给 consumer

  1. kafka 内部如何保证顺序:kafka 只能保证 partition 内是有序的,但是 partition 间的有序是没办法的。爱奇艺的搜索架构,是从业务上把需要有序的打到同一个 partition。


第六题:大数据面试题-分布式相关(阿里)

问:说说三种分布式锁?


答:

  1. 基于数据库实现分布式锁:(性能较差,锁表的风险,非阻塞,失败需要轮询耗 CPU)

- 悲观锁


利用 select … where … for update 排他锁


注意: 其他附加功能与实现基本一致,这里需要注意的是“where name=lock ”,name 字段必须要走索引,否则会锁表。有些情况下,比如表不大,mysql 优化器会不走这个索引,导致锁表问题。

- 乐观锁

所谓乐观锁与悲观锁最大区别在于基于 CAS 思想,是不具有互斥性,不会产生锁等待而消耗资源,操作过程中认为不存在并发冲突,只有 update version 失败后才能觉察到。我们的抢购、秒杀就是用了这种实现以防止超卖。

乐观锁是通过增加递增的版本号字段实现的。


  1. 基于缓存(Redis 等)实现分布式锁:(过期时间不好控制,非阻塞,失败需要轮询耗 CPU)

- 获取锁的时候,使用 setnx 加锁,并使用 expire 命令为锁添加一个超时时间,超过该时间则自动释放锁,锁的 value 值为一个随机生成的 UUID,通过此在释放锁的时候进行判断。

- 获取锁的时候还设置一个获取的超时时间,若超过这个时间则放弃获取锁。

- 释放锁的时候,通过 UUID 判断是不是该锁,若是该锁,则执行 delete 进行锁释放。


  1. 基于 Zookeeper 实现分布式锁:(高可用、可重入、阻塞锁)


大致思想:每个客户端对某个功能加锁时,在 zookeeper 上的与该功能对应的指定节点的目录下,⽣生成⼀个唯一的瞬时有序节点。判断是否获取锁的方式很简单,只需要判断有序节点中序号最小的一个。当释放锁的时候,只需将这个瞬时节点删除即可。同时,其可以避免服务宕机导致的锁无法释放,⽽而产生的死锁问题。


  • 优点:锁安全性高,zk 可持久化,且能实时监听获取锁的客户端状态。一旦客户端宕机,则瞬时节点随之消失,zk 因⽽而能第一时间释放锁。这也省去了用分布式缓存实现锁的过程中需要加入超时时间判断的这一逻辑。


  • 缺点:性能开销⽐比较高。因为其需要动态产生、销毁瞬时节点来实现锁功能。所以不太适合直接提供给高并发的场景使用。


  • 实现:可以直接采用 zookeeper 第三方库 curator 即可方便地实现分布式锁。


  • 适用场景:对可靠性要求非常高,且并发程度不高的场景下使用。如核心数据的定时全量/增量同步等。


第七题:大数据面试题-Hadoop、Spark 相关(京东金融)


问:Hadoop 和 Spark 的相同点和不同点?


答:


Hadoop 底层使用 MapReduce 计算架构,只有 map 和 reduce 两种操作,表达能力比较欠缺,而且在 MR 过程中会重复的读写 hdfs,造成大量的磁盘 io 读写操作,所以适合高时延环境下批处理计算的应用;


Spark 是基于内存的分布式计算架构,提供更加丰富的数据集操作类型,主要分成转化操作和行动操作,包括 map、reduce、filter、flatmap、groupbykey、reducebykey、union 和 join 等,数据分析更加快速,所以适合低时延环境下计算的应用;


spark 与 hadoop 最大的区别在于迭代式计算模型。基于 mapreduce 框架的 Hadoop 主要分为 map 和 reduce 两个阶段,两个阶段完了就结束了,所以在一个 job 里面能做的处理很有限;spark 计算模型是基于内存的迭代式计算模型,可以分为 n 个阶段,根据用户编写的 RDD 算子和程序,在处理完一个阶段后可以继续往下处理很多个阶段,而不只是两个阶段。所以 spark 相较于 mapreduce,计算模型更加灵活,可以提供更强大的功能。


但是 spark 也有劣势,由于 spark 基于内存进行计算,虽然开发容易,但是真正面对大数据的时候,在没有进行调优的情况下,可能会出现各种各样的问题,比如 OOM 内存溢出等情况,导致 spark 程序可能无法运行起来,而 mapreduce 虽然运行缓慢,但是至少可以慢慢运行完。


第八题:大数据面试题-Yarn 相关(特斯拉)

问:一个应用程序是如何在 Yarn 集群上执行的?


答:


当 jobclient 向 YARN 提交一个应用程序后,YARN 将分两个阶段运行这个应用程序:一是启动 ApplicationMaster;第二个阶段是由 ApplicationMaster 创建应用程序,为它申请资源,监控运行直到结束。


具体步骤如下:


  1. 用户向 YARN 提交一个应用程序,并指定 ApplicationMaster 程序、启动 ApplicationMaster 的命令、用户程序。


  1. RM 为这个应用程序分配第一个 Container,并与之对应的 NM 通讯,要求它在这个 Container 中启动应用程序 ApplicationMaster。


  1. ApplicationMaster 向 RM 注册,然后拆分为内部各个子任务,为各个内部任务申请资源,并监控这些任务的运行,直到结束。


  1. AM 采用轮询的方式向 RM 申请和领取资源。


  1. RM 为 AM 分配资源,以 Container 形式返回。


  1. AM 申请到资源后,便与之对应的 NM 通讯,要求 NM 启动任务。


  1. NodeManager 为任务设置好运行环境,将任务启动命令写到一个脚本中,并通过运行这个脚本启动任务。


  1. 各个任务向 AM 汇报自己的状态和进度,以便当任务失败时可以重启任务。


  1. 应用程序完成后,ApplicationMaster 向 ResourceManager 注销并关闭自己。


第九题:大数据面试题-数据质量相关(蚂蚁金服)

问:数据质量怎么监控?


答:


如一张表的记录数在一个已知的范围内,或者上下浮动不会超过某个阈值:


  1. SQL 结果:var 数据量 = select count(*)from 表 where 时间等过滤条件


  1. 报警触发条件设置:如果数据量不在[数值下限, 数值上限], 则触发报警


  1. 同比增加:如果((本周的数据量 -上周的数据量)/上周的数据量*100)不在 [比例下线,比例上限],则触发报警


  1. 环比增加:如果((今天的数据量 - 昨天的数据量)/昨天的数据量*100)不在 [比例下线,比例上限],则触发报警


  1. 报警触发条件设置一定要有。如果没有配置的阈值,不能做监控

日活、周活、月活、留存(日周月)、转化率(日、周、月)GMV(日、周、月)

复购率(日周月)


单表空值检测


某个字段为空的记录数在一个范围内,或者占总量的百分比在某个阈值范围内


  1. 目标字段:选择要监控的字段,不能选“无”


  1. SQL 结果:var 异常数据量 = select count(*) from 表 where 目标字段 is null


  1. 单次检测:如果(异常数据量)不在[数值下限, 数值上限],则触发报警


单表重复值检测


一个或多个字段是否满足某些规则


  1. 目标字段:第一步先正常统计条数;select count(*) form 表;


  1. 第二步,去重统计;select count(*) from 表 group by 某个字段


  1. 第一步的值和第二步的值做减法,看是否在上下线阀值之内


  1. 单次检测:如果(异常数据量)不在[数值下限, 数值上限], 则触发报警


跨表数据量对比


主要针对同步流程,监控两张表的数据量是否一致


  1. SQL 结果:count(本表) - count(关联表)


  1. 阈值配置与“空值检测”相同


第十题:大数据面试题-海量数据相关(百度)

问:在海量日志数据中,提取出某日访问百度次数最多的那个 IP


答:这类问题都归为求 Top K 的问题,解决方法都差不多。


将这一天访问百度的日志的 IP 取出来,逐个写入到一个大文件中。注意到 IP 是 32 位的,最多有个 2^32 个 IP。同样可以采用映射的方法,比如模 1000,把整个大文件映射为 1000 个小文件,再找出每个小文中出现频率最大的 IP(可以采用 HashMap 进行频率统计,然后再找出频率最大的几个)及相应的频率。然后再在这 1000 个最大的 IP 中找出那个频率最大的 IP,即为所求。


算法思想:分而治之+Hash


  1. IP 地址最多有 2^32=4G 种取值情况,所以不能完全加载到内存中处理;


  1. 可以考虑采用分而治之的思想,按照 IP 地址的 Hash(IP) % 1024 值,把海量 IP 日志分别存储到 1024 个

小文件中,这样每个小文件最多包含 4MB 个 IP 地址; 这里解释一下为什么用 Hash(IP) % 1024 值,如果不用,而直接分类的话,可能会出现这样一种情况,就是有个 IP 在每个小文件中都存在,而且这个 IP 并不一定在那个小文件中是数量最多的,那么最终可能选择的结果会有问题,所以这里用了 Hash(IP)%1024 值,这样的话,通过计算 IP 的 Hash 值,相同 IP 肯定会放到一个文件中,当然了不同的 IP 的 Hash 值也可能相同,就存在一个小文件中。


  1. 对于每一个小文件,可以构建一个 IP 为 key,出现的次数为 value 的 HashMap,同时记录当前出现次数最多的那个 IP 地址;


  1. 可以得到 1024 个小文件中的出现次数最多的那个 IP,再依据常规的排序算法得出总体上出现次数最多的 IP。


发布于: 2021 年 02 月 22 日阅读数: 49
用户头像

公众号:五分钟学大数据 2020.11.10 加入

大数据领域原创技术号,专注于大数据技术

评论

发布
暂无评论
面试系列一:精选大数据面试真题10道(混合型)-附答案详细解析