写点什么

大数据入门学习框架

作者:Lansonli
  • 2022-10-18
    广东
  • 本文字数:5126 字

    阅读完需:约 1 分钟

大数据入门学习框架

大数据入门学习框架

前言

利用框架的力量,看懂游戏规则,才是入行的前提

大多数人不懂,不会,不做,才是你的机会,你得行动,不能畏首畏尾

选择才是拉差距关键,风向,比你流的汗水重要一万倍,逆风划船要累死人的


为什么选择学习大数据开发,不选择 Java 开发?

借棋弈做比喻,智商高的不要选择五子琪,要选择围棋,它能长久地吸引你。

不都是在棋盘上一颗黑子一颗白子地下吗?因为围棋更复杂,能够掌握如此复杂的技艺、产生稳定输出的棋手、让我们更佩服。选择学习大数据开发也如此,能让你的职业生涯走得更远,少走弯路。

还有一点就是现在大数据等于趋势,一个向上趋势的行业会让你赚得比其他行业多。

上面这些看似没用,但又至关重要,这里我就不在强调作用,有兴趣的同学可以看看我的大数据学习探讨话题:

学习框架的重要性

我是怎么坚持学习的​​​​​​​

怎么确定学习目标


这个栏目初学者全面整理入门的大数据必学知识,内容是按照体系划分的,集合 190 多篇高质量文章带你认识大数据,掌握入门的规则。

只要跟着顺序去学,把里面的体系知识掌握了,你才能真正的入门大数据,前提得自律加坚持,赶快行动吧


一、大数据基础

1、大数据概念

2、大数据的特点(5v)

3、大数据应用场景

4、大数据业务分析基本步骤

5、分布式技术


二、大数据必学 Java 基础

注意:这是另外的付费栏目,一般学习大数据的,默认你都是有 Java 和 Python 等语言的基础,需要你提前学好基础语言的知识。这里 Java 语言基础最为重要,所以单独写了一个 Java 的基础知识栏目给没有 Java 基础的同学优先学习,如果你本身就有独立 Java 开发能力,可以跳过这一块内容。

1、Java体系结构、特性和优势

2、Java核心机制

3、JAVA环境准备-->JDK

4、安装notepad++,配置path环境变量

5、第一段程序

6、程序中常见问题和编译方式

7、扩展环境变量

8、简单介绍API和注释

9、JDK,JRE,JVM的区别

10、标识符和关键字

11、变量和常量

12、基本数据类型

13、基本数据类型的转换

14、Java中的运算符

15、算术运算符

16、赋值运算符

17、关系运算符和逻辑运算符

18、条件运算符和位运算符

19、运算符总结

20、流程控制的引入和if语句介绍

21、Switch多分支结构介绍

22、循环结构

23、方法的定义/调用/重载

24、数组的引入和学习

25、数组的三种初始化方式

26、数组的应用题

27、详述main方法和了解可变参数

28、Arrays工具类和数组的复制操作

29、二维数组

30、IDEA的使用介绍

31、IDEA模板的使用

32、IDEA中的断点调试

33、面向对象介绍

34、面向对象内存分析

35、深入了解关键词this

36、深入了解关键词static

37、代码块讲解

38、包和import讲解

39、面向对象三大特性之一封装(Encapsulation)

40、面向对象三大特性之一继承(Inheritance)

41、面向对象三大特性之一多态(Polymorphism)

42、Final关键词讲解 

43、抽象类和抽象方法讲解

44、接口讲解

45、JDK1.8以后的接口新增内容 

46、内部类和面向对象项目实战 

47、异常的讲解

48、包装类和日期类的讲解

49、Math类和Random类的讲解

50、String类和StringBuilder类的讲解

51、什么是算法和数据结构

52、集合的深入了解

53、Colletion接口

54、List接口深入了解

55、泛型深入了解

56、LinkedList实现类的使用

57、Set接口讲解

58、Map接口讲解

59、Map接口源码部分

60、集合补充

61、同步类容器对比应用​​​​​​​

​​​​​​​62、ConcurrentMap并发容器对比

​​​​​​​63、COW并发容器讲解

​​​​​​​64、数据结构队列介绍

​​​​​​​65、阻塞队列介绍

​​​​​​​66、BlockingQueue常见子类

​​​​​​​67、DelayQueue深入了解

​​​​​​​68、File类的深入了解

69、IO流的深入了解

70、不要用字符流去操作非文本文件

71、比对非文本文件复制的三种方法的效率

72、System类对IO流的支持

持续更新中。。。


三、ZooKeeper

1、ZooKeeper基本知识

2、ZooKeeper集群搭建

3、Zookeeper数据模型和节点类型

4、ZooKeeper的shell操作

5、ZooKeeper Java API操作

6、ZooKeeper选举机制


四、大数据环境搭建

1、Hadoop编译

2、分布式环境搭建


五、Hadoop

1、Hadoop介绍

2、Hadoop发展简史和特性优点

3、Hadoop国内外应用

4、Hadoop发行版公司

5、Hadoop架构

6、Hadoop集群搭建

7、HDFS分布式文件系统简介

8、HDFS的Shell命令行使用

9、HDFS的高级使用命令

10、HDFS的数据读写流程

11、HDFS的元数据辅助管理

12、HDFS的API操作

13、HDFS其他功能

14、HDFS的高可用机制

15、Hadoop的联邦机制 Federation

16、MapReduce计算模型介绍

17、MapReduce编程规范及示例编写

18、MapReduce程序运行模式和深入解析

19、MapReduce分区

20、MapReduce的排序和序列化

21、MapReuce的Combineer

22、MapReduce的自定义分组

23、MapReduce的运行机制详解

24、MapReduce高阶训练

25、YARN通俗介绍和基本架构

26、YARN三大组件介绍

27、YARN运行流程

28、YARN的调度器Scheduler

29、关于YARN常用参数设置

30、Hadoop3.x的介绍


六、Hive

1、Hive基本概念

2、Hive的三种安装模式和MySQL搭配使用

3、Hive数据库和表操作

4、Hive查询语法

5、Hive的内置函数

6、Hive的表生成函数

7、Hive的开窗函数

8、Hive自定义函数

9、Hive的数据压缩

10、Hive的数据存储格式

11、Hive调优

12、Hive综合案例

13、手撕这十道HiveSQL题吊打面试官


七、HBase

1、HBase基本简介

2、HBase集群安装操作

3、HBase数据模型

4、HBase的相关操作-客户端命令式

5、HBase的相关操作JavaAPI方式

6、HBase的高可用

7、Hbase的架构

8、Apache Phoenix的基本介绍

9、Apache Phoenix的安装

10、Apache Phoenix的基本入门操作

11、Apache Phoenix的视图操作

12、Apache Phoenix 二级索引

13、HBase读取和存储数据的流程

14、HBase的原理及其相关的工作机制

15、HBase的Bulk Load批量加载操作

16、HBase的协处理器(Coprocessor)

17、HBase全面调优

18、使用HBase的陌陌案例


八、Kafka

1、消息队列和Kafka的基本介绍

2、Kafka特点总结和架构

3、Kafka的集群搭建以及shell启动命令脚本编写

4、kafka的shell命令使用

5、Kafka的java API编写

6、安装Kafka-Eagle

7、Kafka的分片和副本机制

8、Kafka如何保证数据不丢失

9、kafka消息存储及查询机制原理

10、kafka生产者数据分发策略

11、Kafka的消费者负载均衡机制和数据积压问题

12、Kafka配额限速机制


九、Scala

栏目地址:大数据必学语言Scala


十、Spark

1、框架概述

2、四大特点

3、框架模块初步了解

4、三种常见的运行模式

5、环境搭建本地模式 Local

6、环境搭建集群模式 Standalone

7、应用架构基本了解

8、环境搭建集群模式 Standalone HA

9、Spark On Yarn两种模式总结

10、环境搭建集群模式 Spark on YARN

11、应用开发基于IDEA集成环境

12、Spark Core的RDD详解

13、Spark Core的RDD创建

14、Spark Core的RDD操作

15、Spark Core的RDD常用算子

16、Spark Core的RDD算子练习

17、Spark Core的RDD持久化

18、Spark Core的RDD Checkpoint

19、Spark Core的共享变量

20、Spark Core外部数据源引入

21、Spark Core案例-SogouQ日志分析

22、内核原理

23、SparkSQL 概述

24、SparkSQL数据抽象

25、SparkSQL的RDD、DF、DS相关操作

26、SparkSQL数据处理分析

27、SparkSQL案例花式查询和WordCount

28、SparkSQL案例三电影评分数据分析

29、SparkSQL案例四开窗函数

30、SparkSQL自定义UDF函数

31、Spark On Hive

32、SparkSQL的External DataSource

33、SparkSQL分布式SQL引擎

34、Spark Streaming概述

35、SparkStreaming数据抽象 DStream

36、SparkStreaming实战案例一 WordCount

37、SparkStreaming实战案例二 UpdateStateByKey

38、SparkStreaming实战案例三 状态恢复 扩展

39、SparkStreaming实战案例四 窗口函数

40、SparkStreaming实战案例五 TopN-transform

41、SparkStreaming实战案例六 自定义输出 foreachRDD

42、SparkStreaming的Kafka快速回顾与整合说明

43、SparkStreaming整合Kafka 0.10 开发使用

44、Structured Streaming概述

45、Structured Streaming Sources 输入源

46、Structured Streaming Operations 操作

47、Structured Streaming Sink 输出

48、Structured Streaming 输出终端/位置

49、Structured Streaming 整合 Kafka

50、Structured Streaming 案例一实时数据ETL架构

51、Structured Streaming 物联网设备数据分析

52、Structured Streaming 事件时间窗口分析

53、Structured Streaming Deduplication

54、扩展阅读 SparkSQL底层如何执行

55、Spark的关键技术回顾


十一、Flink

1、乘风破浪的Flink-Flink概述

2、Flink用武之地

3、Flink安装部署 Local本地模式

4、Standalone独立集群模式

5、Standalone-HA高可用集群模式

6、Flink On Yarn模式

7、参数总结

8、Flink入门案例

9、Flink原理初探

10、流处理相关概念

11、流批一体API Source

12、流批一体API Transformation

13、流批一体API Sink

14、流批一体API Connectors JDBC

15、流批一体API Connectors Kafka

16、流批一体API Connectors Redis

17、Flink四大基石

18、Flink Window操作

19、案例一 基于时间的滚动和滑动窗口

20、案例二 基于数量的滚动和滑动窗口

21、案例三 会话窗口

22、Time与Watermaker

23、Watermaker案例演示

24、Allowed Lateness案例演示

25、Flink 状态管理

26、​​​​​​​State代码示例

27、Flink 容错机制 Checkpoint

28、Flink 容错机制 自动重启策略和恢复

29、Flink 容错机制 Savepoint

30、Flink ​​​​​​​Table API & SQL 介绍

31、Table与SQL案例准备 依赖和​​​​​​​程序结构

32、Table与SQL案例准备 API

33、​​​​​​​Table与SQL相关概念

34、​​​​​​​Table与SQL ​​​​​​案例一

35、​​​​​​​Table与SQL ​​​​​​案例二

36、​​​​​​​Table与SQL ​​​​​​案例三

37、​​​​​​​Table与SQL ​​​​​​案例四

38、​​​​​​​Table与SQL ​​​​​​案例五 FlinkSQL整合Hive

39、​​​​​​​Table与SQL ​​​​​​总结 Flink-SQL常用算子

40、​​​​​​​Flink模拟双十一实时大屏统计

41、​​​​​​​Flink实现订单自动好评

42、​​​​​​​BroadcastState

43、扩展阅读 关于并行度

44、​​​​​​扩展阅读 End-to-End Exactly-Once

45、​​​​​​扩展阅读 双流Join

46、扩展阅读 异步IO

47、扩展阅读 File Sink

48、扩展阅读 Streaming File Sink


最后要重塑认知



穷困一生的五个毛病

第一个毛病,急功近利

经常有人问看哪几本书可以改变人生,答案是看哪几本都不行,人生不是由几本书决定的,也不是由几个人决定的,它是几十本书甚至几百本构建出来的一个体系,是需要逐渐地尝试、逐渐地摸索、逐渐地碰壁,最后总结出一套适合自己的方法论。


第二个毛病,线性规划

很多人的人生是线性的,他们特别喜欢规划,恨不得一直规划到 85 岁。

但凡你多了解这个世界,就知道任何细致末节的规划都是没有用的。因为真实的世界是充满变数的,有的是十年磨一剑,而九年却看不到任何变化。有的是你拼尽全力准备,却根本等不来决战的机会。有的是你费尽心机算对每一个细节,一抬头,却错过了未来的风口。

规划源于确定,确定源于习惯,习惯源于读书时候的潜移默化。

60 年前还没有家用电脑,50 年前还没有网络,40 年前还没有 Java 语言,30 年前还没有智能手机,20 年前还没有大数据,哪一个在你的规划之内呢?


第三个毛病,自我视角

所有的角度都是自己:我怎么怎么样,我做了什么什么,我学这个为什么还是没掌握,主语永远都是我。他们从来不会切换视角,从来不研究学这到底要做什么,这个知识最为主要的是什么,满脑子都想着怎么提高技能。

你得换位思考,学这个知识为了就业,那你就有应付面试官的能力,掌握高频的面试知识点。

进入公司得做项目,所以你需要提高自己的项目实战能力,基于不同的业务场景做练习。而不是对各种知识细致末节的都要学,最终都没掌握好。


第四个毛病,追求免费

真正的知识一定是很贵很贵的,绝对不是你买一本书就能学得到的,也绝对不是你看一些免费的东西就可以到手的。

任何一本数据库架构的书,都不超过 100 块钱,为什么一个顶级的架构工程师,可以年薪千万?

这其中的原因是真正的知识才是拉开距离的关键。能让你花钱买到,就已经很不错了。

世界是要等价交换的,你想得到一个最珍贵的东西,就得拿自己最珍贵的东西去换,绝对不是交 9.9 块钱的费用学了半个月就能成顶级架构师,幻想财务自由。

这个世界上最贵的东西就是“免费”,那些能拿钱去计算的,明码标价让你觉得贵的,才是信息成本最低、最便宜的方式。


第五个毛病,不懂放弃

有些人这个也想要,那个也想要,这个也舍不得,那个也舍不得,永远处在犹豫的状态当中。

找一个公司,既想待遇高,又想福利好、加班少、还要专业对口,还得有发展前景,能再给点期权就更好,这样的结果就是永远找不到合适的行业。

世界上没有完美,就算你考到 700 分,清华和北大也只能选一个,永远要为了一个更重要的,放弃不那么重要的。


成功很难,但是失败很容易,五个毛病,照做就行。

发布于: 刚刚阅读数: 4
用户头像

Lansonli

关注

微信公众号:三帮大数据 2022-07-12 加入

CSDN大数据领域博客专家,华为云享专家、阿里云专家博主、腾云先锋(TDP)核心成员、51CTO专家博主,全网六万多粉丝,知名互联网公司大数据高级开发工程师

评论

发布
暂无评论
大数据入门学习框架_大数据_Lansonli_InfoQ写作社区