写点什么

大数据培训 Spark SQL 知识点与实战分析

作者:@零度
  • 2022 年 4 月 28 日
  • 本文字数:14036 字

    阅读完需:约 46 分钟

​Spark SQL 概述


1、什么是 Spark SQL


Spark SQL 是 Spark 用于结构化数据(structured data)处理的 Spark 模块。与基本的 Spark RDD API 不同,Spark SQL 的抽象数据类型为 Spark 提供了关于数据结构和正在执行的计算的更多信息。


在内部,Spark SQL 使用这些额外的信息去做一些额外的优化,有多种方式与 Spark SQL 进行交互,比如: SQL 和 DatasetAPI。


当计算结果的时候,使用的是相同的执行引擎,不依赖你正在使用哪种 API 或者语言。这种统一也就意味着开发者可以很容易在不同的 API 之间进行切换,这些 API 提供了最自然的方式来表达给定的转换。


Hive 是将 Hive SQL 转换成 MapReduce 然后提交到集群上执行,大大简化了编写 MapReduce 的程序的复杂性,由于 MapReduce 这种计算模型执行效率比较慢。所以 Spark SQL 的应运而生,它是将 Spark SQL 转换成 RDD,然后提交到集群执行,执行效率非常快!Spark SQL 它提供了 2 个编程抽象,类似 Spark Core 中的 RDD(1)DataFrame(2)Dataset


2、Spark SQL 的特点


1)易整合


无缝的整合了 SQL 查询和 Spark 编程


2)统一的数据访问方式


使用相同的方式连接不同的数据源


3)兼容 Hive


在已有的仓库上直接运行 SQL 或者 HiveQL


4)标准的数据连接


通过 JDBC 或者 ODBC 来连接


3、什么的 DataFrame


在 Spark 中,DataFrame 是一种以 RDD 为基础的分布式数据集,类似于传统数据库中的二维表格。DataFrame 与 RDD 的主要区别在于,前者带有 schema 元信息,即 DataFrame 所表示的二维表数据集的每一列都带有名称和类型。这使得 Spark SQL 得以洞察更多的结构信息,从而对藏于 DataFrame 背后的数据源以及作用于 DataFrame 之上的变换进行了针对性的优化,最终达到大幅提升运行时效率的目标。反观 RDD,由于无从得知所存数据元素的具体内部结构,Spark Core 只能在 stage 层面进行简单、通用的流水线优化。同时,与 Hive 类似,DataFrame 也支持嵌套数据类型(struct、array 和 map)。从 API 易用性的角度上看,DataFrame API 提供的是一套高层的关系操作,比函数式的 RDD API 要更加友好,门槛更低。


上图直观地体现了 DataFrame 和 RDD 的区别。左侧的 RDD[Person]虽然以 Person 为类型参数,但 Spark 框架本身不了解 Person 类的内部结构。而右侧的 DataFrame 却提供了详细的结构信息,使得 Spark SQL 可以清楚地知道该数据集中包含哪些列,每列的名称和类型各是什么。DataFrame 是为数据提供了 Schema 的视图。可以把它当做数据库中的一张表来对待,DataFrame 也是懒执行的,但性能上比 RDD 要高,主要原因:优化的执行计划,即查询计划通过 Spark catalyst optimiser 进行优化。比如下面一个例子:


为了说明查询优化,我们来看上图展示的人口数据分析的示例。图中构造了两个 DataFrame,将它们 join 之后又做了一次 filter 操作。如果原封不动地执行这个执行计划,最终的执行效率是不高的。因为 join 是一个代价较大的操作,也可能会产生一个较大的数据集。如果我们能将 filter 下推到 join 下方,先对 DataFrame 进行过滤,再 join 过滤后的较小的结果集,便可以有效缩短执行时间。而 Spark SQL 的查询优化器正是这样做的。简而言之,逻辑查询计划优化就是一个利用基于关系代数的等价变换,将高成本的操作替换为低成本操作的过程_大数据培训


4、什么是 DataSet


DataSet 是分布式数据集合。DataSet 是 Spark 1.6 中添加的一个新抽象,是 DataFrame 的一个扩展。它提供了 RDD 的优势(强类型,使用强大的 lambda 函数的能力)以及 Spark SQL 优化执行引擎的优点。DataSet 也可以使用功能性的转换(操作 map,flatMap,filter 等等)。

1)是 DataFrame API 的一个扩展,是 SparkSQL 最新的数据抽象;

2)用户友好的 API 风格,既具有类型安全检查也具有 DataFrame 的查询优化特性;

3)用样例类来定义 DataSet 中数据的结构信息,样例类中每个属性的名称直接映射到 DataSet 中的字段名称;

4)DataSet 是强类型的。比如可以有 DataSet[Car],DataSet[Person]。

5)DataFrame 是 DataSet 的特列,DataFrame=DataSet[Row] ,所以可以通过 as 方法将 DataFrame 转换为 DataSet。Row 是一个类型,跟 Car、Person 这些的类型一样,所有的表结构信息都用 Row 来表示。


Spark SQL 编程


1、Spark Session 新的起始点


在老的版本中,SparkSQL 提供两种 SQL 查询起始点:一个叫 SQLContext,用于 Spark 自己提供的 SQL 查询;一个叫 HiveContext,用于连接 Hive 的查询。SparkSession 是 Spark 最新的 SQL 查询起始点,实质上是 SQLContext 和 HiveContext 的组合,所以在 SQLContex 和 HiveContext 上可用的 API 在 SparkSession 上同样是可以使用的。SparkSession 内部封装了 sparkContext,所以计算实际上是由 sparkContext 完成的。当我们使用 spark-shell 的时候, spark 会自动的创建一个叫做 spark 的 SparkSession, 就像我们以前可以自动获取到一个 sc 来表示 SparkContext


2、DataFrame


Spark SQL 的 DataFrame API 允许我们使用 DataFrame 而不用必须去注册临时表或者生成 SQL 表达式。DataFrame API 既有 transformation 操作也有 action 操作,DataFrame 的转换从本质上来说更具有关系, 而 DataSet API 提供了更加函数式的 API。


2.1 创建 DataFrame


在 Spark SQL 中 SparkSession 是创建 DataFrame 和执行 SQL 的入口,创建 DataFrame 有三种方式:通过 Spark 的数据源进行创建;从一个存在的 RDD 进行转换;还可以从 Hive Table 进行查询返回。


2.2 SQL 风格语法


SQL 语法风格是指我们查询数据的时候使用 SQL 语句来查询,这种风格的查询必须要有临时视图或者全局视图来辅助 1)创建一个 DataFrame


scala> val df = spark.read.json("/opt/module/spark-local/people.json")


df: org.apache.spark.sql.DataFrame = [age: bigint, name: string]


2)对 DataFrame 创建一个临时表


scala> df.createOrReplaceTempView("people")


3)通过 SQL 语句实现查询全表


scala> val sqlDF = spark.sql("SELECT * FROM people")


sqlDF: org.apache.spark.sql.DataFrame = [age: bigint, name: string]


4)结果展示


scala> sqlDF.show


+---+--------+


|age| name|


+---+--------+


| 18|qiaofeng|


| 19| duanyu|


| 20| xuzhu|


+---+--------+


注意:普通临时表是 Session 范围内的,如果想应用范围内有效,可以使用全局临时表。使用全局临时表时需要全路径访问,如:global_temp.people


5)对于 DataFrame 创建一个全局表


scala> df.createGlobalTempView("people")


6)通过 SQL 语句实现查询全表


scala> spark.sql("SELECT * FROM global_temp.people").show()


+---+--------+


|age| name|


+---+--------+


| 18|qiaofeng|


| 19| duanyu|


| 20| xuzhu|


+---+--------+


scala> spark.newSession().sql("SELECT * FROM global_temp.people").show()


+---+--------+


|age| name|


+---+--------+


| 18|qiaofeng|


| 19| duanyu|


| 20| xuzhu|


+---+--------+


2.3 DSL 风格语法


DataFrame 提供一个特定领域语言(domain-specific language, DSL)去管理结构化的数据,可以在 Scala, Java, Python 和 R 中使用 DSL,使用 DSL 语法风格不必去创建临时视图了。1)创建一个 DataFrame


scala> val df = spark.read.json("/opt/module/spark-local /people.json")


df: org.apache.spark.sql.DataFrame = [age: bigint, name: string]


2)查看 DataFrame 的 Schema 信息


scala> df.printSchema


root


|-- age: Long (nullable = true)


|-- name: string (nullable = true)


3)只查看”name”列数据


scala> df.select("name").show()


+--------+


| name|


+--------+


|qiaofeng|


| duanyu|


| xuzhu|


+--------+


4)查看所有列


scala> df.select("*").show


+--------+---------+


| name |age|


+--------+---------+


|qiaofeng| 18|


| duanyu| 19|


| xuzhu| 20|


+--------+---------+


5)查看”name”列数据以及”age+1”数据注意:涉及到运算的时候, 每列都必须使用 $


scala> df.select("age" + 1).show


+--------+---------+


| name|(age + 1)|


+--------+---------+


|qiaofeng| 19|


| duanyu| 20|


| xuzhu| 21|


+--------+---------+


6)查看”age”大于”19”的数据


scala> df.filter($"age">19).show


+---+-----+


|age| name|


+---+-----+


| 20|xuzhu|


+---+-----+


7)按照”age”分组,查看数据条数


scala> df.groupBy("age").count.show


+---+-----+


|age|count|


+---+-----+


| 19| 1|


| 18| 1|


| 20| 1|


+---+-----+


2.4 RDD 转换为 DataFrame


在 IDEA 中开发程序时,如果需要 RDD 与 DF 或者 DS 之间互相操作,那么需要引入 import spark.implicits._。这里的 spark 不是 Scala 中的包名,而是创建的 sparkSession 对象的变量名称,所以必须先创建 SparkSession 对象再导入。这里的 spark 对象不能使用 var 声明,因为 Scala 只支持 val 修饰的对象的引入。spark-shell 中无需导入,自动完成此操作。


scala> val idRDD = sc.textFile("data/id.txt") scala> idRDD.toDF("id").show


+---+


| id|


+---+


| 1|


| 2|


| 3|


| 4|


+---+


实际开发中,一般通过样例类将 RDD 转换为 DataFrame。


scala> case class User(name:String, age:Int) defined class User


scala> sc.makeRDD(List(("zhangsan",30), ("lisi",40))).map(t=>User(t._1, t._2)).toDF.show


+--------+---+


| name|age|


+--------+---+


2.5 DataFrame 转换为 RDD


DataFrame 其实就是对 RDD 的封装,所以可以直接获取内部的 RDD


scala> val df = sc.makeRDD(List(("zhangsan",30), ("lisi",40))).map(t=>User(t._1, t._2)).toDF


df: org.apache.spark.sql.DataFrame = [name: string, age: int]


scala> val rdd = df.rdd


rdd: org.apache.spark.rdd.RDD[org.apache.spark.sql.Row] = MapPartitionsRDD[46] at rdd at <console>:25


scala> val array = rdd.collect


array: Array[org.apache.spark.sql.Row] = Array([zhangsan,30], [lisi,40])


注意:此时得到的 RDD 存储类型为 Row


scala> array(0)


res28: org.apache.spark.sql.Row = [zhangsan,30] scala> array(0)(0)


res29: Any = zhangsan


scala> array(0).getAsString res30: String = zhangsan


3、DataSet


DataSet 是具有强类型的数据集合,需要提供对应的类型信息。


3.1 创建 DataSet


1)使用样例类序列创建 DataSet


scala> case class Person(name: String, age: Long)


defined class Person


scala> val caseClassDS = Seq(Person("wangyuyan",2)).toDS()


caseClassDS: org.apache.spark.sql.Dataset[Person] = [name: string, age: Long]


scala> caseClassDS.show


+---------+---+


| name|age|


+---------+---+


|wangyuyan| 2|


+---------+---+


2)使用基本类型的序列创建 DataSet


scala> val ds = Seq(1,2,3,4,5,6).toDS


ds: org.apache.spark.sql.Dataset[Int] = [value: int]


scala> ds.show


+-----+


|value|


+-----+


| 1|


| 2|


| 3|


| 4|


| 5|


| 6|


+-----+


注意:在实际使用的时候,很少用到把序列转换成 DataSet,更多是通过 RDD 来得到 DataSet。


3.2 RDD 转换为 DataSet


SparkSQL 能够自动将包含有样例类的 RDD 转换成 DataSet,样例类定义了 table 的结构,样例类属性通过反射变成了表的列名。样例类可以包含诸如 Seq 或者 Array 等复杂的结构。


1)创建一个 RDD


scala> val peopleRDD = sc.textFile("/opt/module/spark-local/people.txt")


peopleRDD: org.apache.spark.rdd.RDD[String] = /opt/module/spark-local/people.txt MapPartitionsRDD[19] at textFile at <console>:24


2)创建一个样例类


scala> case class Person(name:String,age:Int)


defined class Person


3)将 RDD 转化为 DataSet


scala> peopleRDD.map(line => {val fields = line.split(",");Person(fields(0),fields(1). toInt)}).toDS


res0: org.apache.spark.sql.Dataset[Person] = [name: string, age: Long]


3.3DataSet 转换为 RDD


调用 rdd 方法即可。1)创建一个 DataSet


scala> val DS = Seq(Person("zhangcuishan", 32)).toDS()


DS: org.apache.spark.sql.Dataset[Person] = [name: string, age: Long]


2)将 DataSet 转换为 RDD


scala> DS.rdd


res1: org.apache.spark.rdd.RDD[Person] = MapPartitionsRDD[6] at rdd at <console>:28


4、DataFrame 与 DataSet 的互操作


4.1 DataFrame 转为 DataSet


1)创建一个 DateFrame


scala> val df = spark.read.json("/opt/module/spark-local/people.json")


df: org.apache.spark.sql.DataFrame = [age: bigint, name: string]


2)创建一个样例类


scala> case class Person(name: String,age: Long)


defined class Person


3)将 DataFrame 转化为 DataSet


scala> df.as[Person]


res5: org.apache.spark.sql.Dataset[Person] = [age: bigint, name: string]


这种方法就是在给出每一列的类型后,使用 as 方法,转成 Dataset,这在数据类型是 DataFrame 又需要针对各个字段处理时极为方便。在使用一些特殊的操作时,一定要加上 import spark.implicits._ 不然 toDF、toDS 无法使用。


4.2Dataset 转为 DataFrame


1)创建一个样例类


scala> case class Person(name: String,age: Long)


defined class Person


2)创建 DataSet


scala> val ds = Seq(Person("zhangwuji",32)).toDS()


ds: org.apache.spark.sql.Dataset[Person] = [name: string, age: bigint]


3)将 DataSet 转化为 DataFrame


scala> var df = ds.toDF


df: org.apache.spark.sql.DataFrame = [name: string, age: bigint]


4)展示


scala> df.show


+---------+---+


| name|age|


+---------+---+


|zhangwuji| 32|


+---------+---+


5、IDEA 实践


1)Maven 工程添加依赖


<dependency>


<groupId>org.apache.spark</groupId>


<artifactId>spark-sql_2.11</artifactId>


<version>2.1.1</version>


</dependency>


2)代码实现


object SparkSQL01_Demo {


def main(args: Array[String]): Unit = {


//创建上下文环境配置对象


val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkSQL01_Demo")


//创建 SparkSession 对象


val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()


//RDD=>DataFrame=>DataSet 转换需要引入隐式转换规则,否则无法转换


//spark 不是包名,是上下文环境对象名


import spark.implicits._


//读取 json 文件 创建 DataFrame {"username": "lisi","age": 18}


val df: DataFrame = spark.read.json("D:\dev\workspace\spark-bak\spark-bak-00\input\test.json")


//df.show()


//SQL 风格语法


df.createOrReplaceTempView("user")


//spark.sql("select avg(age) from user").show


//DSL 风格语法


//df.select("username","age").show()


//RDD=>DataFrame=>DataSet


//RDD


val rdd1: RDD[(Int, String, Int)] = spark.sparkContext.makeRDD(List((1,"qiaofeng",30),(2,"xuzhu",28),(3,"duanyu",20)))


//DataFrame


val df1: DataFrame = rdd1.toDF("id","name","age")


//df1.show()


//DateSet


val ds1: Dataset[User] = df1.as[User]


//ds1.show()


//DataSet=>DataFrame=>RDD


//DataFrame


val df2: DataFrame = ds1.toDF()


//RDD 返回的 RDD 类型为 Row,里面提供的 getXXX 方法可以获取字段值,类似 jdbc 处理结果集,但是索引从 0 开始


val rdd2: RDD[Row] = df2.rdd


//rdd2.foreach(a=>println(a.getString(1)))


//RDD=>DataSe


rdd1.map{


case (id,name,age)=>User(id,name,age)


}.toDS()


//DataSet=>=>RDD


ds1.rdd


//释放资源


spark.stop()


}


}


case class User(id:Int,name:String,age:Int)


Spark SQL 数据的加载与保存


1、通用的加载与保存方式


1)spark.read.load 是加载数据的通用方法 2)df.write.save 是保存数据的通用方法


1.1 数据加载


1)read 直接加载数据


scala> spark.read.


csv format jdbc json load option options orc parquet schema table text textFile


注意:加载数据的相关参数需写到上述方法中,如:textFile 需传入加载数据的路径,jdbc 需传入 JDBC 相关参数。例如:直接加载 Json 数据


scala> spark.read.json("/opt/module/spark-local/people.json").show


+---+--------+


|age| name|


+---+--------+


| 18|qiaofeng|


| 19| duanyu|


| 20| xuzhu|


2)format 指定加载数据类型


scala> spark.read.format("…")[.option("…")].load("…")


用法详解:(1)format("…"):指定加载的数据类型,包括"csv"、"jdbc"、"json"、"orc"、"parquet"和"textFile"(2)load("…"):在"csv"、"jdbc"、"json"、"orc"、"parquet"和"textFile"格式下需要传入加载数据的路径(3)option("…"):在"jdbc"格式下需要传入 JDBC 相应参数,url、user、password 和 dbtable 例如:使用 format 指定加载 Json 类型数据


scala> spark.read.format("json").load ("/opt/module/spark-local/people.json").show


+---+--------+


|age| name|


+---+--------+


| 18|qiaofeng|


| 19| duanyu|


| 20| xuzhu|


3)在文件上直接运行 SQL 前面的是使用 read API 先把文件加载到 DataFrame 然后再查询,也可以直接在文件上进行查询。


scala> spark.sql("select * from json./opt/module/spark-local/people.json").show


+---+--------+


|age| name|


+---+--------+


| 18|qiaofeng|


| 19| duanyu|


| 20| xuzhu|


+---+--------+|


说明:json 表示文件的格式. 后面的文件具体路径需要用反引号括起来。


1.2 保存数据


1)write 直接保存数据


scala> df.write.


csv jdbc json orc parquet textFile… …


注意:保存数据的相关参数需写到上述方法中。如:textFile 需传入加载数据的路径,jdbc 需传入 JDBC 相关参数。例如:直接将 df 中数据保存到指定目录


//默认保存格式为 parquet


scala> df.write.save("/opt/module/spark-local/output")


//可以指定为保存格式,直接保存,不需要再调用 save 了


scala> df.write.json("/opt/module/spark-local/output")


2)format 指定保存数据类型


scala> df.write.format("…")[.option("…")].save("…")


用法详解:(1)format("…"):指定保存的数据类型,包括"csv"、"jdbc"、"json"、"orc"、"parquet"和"textFile"。(2)save ("…"):在"csv"、"orc"、"parquet"和"textFile"格式下需要传入保存数据的路径。(3)option("…"):在"jdbc"格式下需要传入 JDBC 相应参数,url、user、password 和 dbtable


3)文件保存选项保存操作可以使用 SaveMode, 用来指明如何处理数据,使用 mode()方法来设置。有一点很重要: 这些 SaveMode 都是没有加锁的, 也不是原子操作。SaveMode 是一个枚举类,其中的常量包括:


例如:使用指定 format 指定保存类型进行保存


df.write.mode("append").json("/opt/module/spark-local/output")


1.3 默认数据源


Spark SQL 的默认数据源为 Parquet 格式。数据源为 Parquet 文件时,Spark SQL 可以方便的执行所有的操作,不需要使用 format。修改配置项 spark.sql.sources.default,可修改默认数据源格式。1)加载数据


val df = spark.read.load("/opt/module/spark-local/examples/src/main/resources/users.parquet").show


+------+--------------+----------------+


| name|favorite_color|favorite_numbers|


+------+--------------+----------------+


|Alyssa| null| [3, 9, 15, 20]|


| Ben| red| []|


+------+--------------+----------------+


df: Unit = ()


2)保存数据


scala> var df = spark.read.json("/opt/module/spark-local/people.json")


//保存为 parquet 格式


scala> df.write.mode("append").save("/opt/module/spark-local/output")


2、JSON 文件


Spark SQL 能够自动推测 JSON 数据集的结构,并将它加载为一个 Dataset[Row]。可以通过 SparkSession.read.json()去加载一个一个 JSON 文件。注意:这个 JSON 文件不是一个传统的 JSON 文件,每一行都得是一个 JSON 串。格式如下:


{"name":"Michael"}


{"name":"Andy","age":30}


{"name":"Justin","age":19}


1)导入隐式转换


import spark.implicits._


2)加载 JSON 文件


val path = "/opt/module/spark-local/people.json"


val peopleDF = spark.read.json(path)


3)创建临时表


peopleDF.createOrReplaceTempView("people")


4)数据查询


val teenagerNamesDF = spark.sql("SELECT name FROM people WHERE age BETWEEN 13 AND 19")


teenagerNamesDF.show()


+------+


| name|


+------+


|Justin|


+------+


3、MySQL


Spark SQL 可以通过 JDBC 从关系型数据库中读取数据的方式创建 DataFrame,通过对 DataFrame 一系列的计算后,还可以将数据再写回关系型数据库中。如果使用 spark-shell 操作,可在启动 shell 时指定相关的数据库驱动路径或者将相关的数据库驱动放到 spark 的类路径下。


bin/spark-shell


--jars mysql-connector-java-5.1.27-bin.jar


这里演示在 Idea 中通过 JDBC 对 Mysql 进行操作


3.1 导入依赖


<dependency>


<groupId>mysql</groupId>


<artifactId>mysql-connector-java</artifactId>


<version>5.1.27</version>


</dependency>


3.2 从 JDBC 读数据


object SparkSQL02_Datasource {


def main(args: Array[String]): Unit = {


//创建上下文环境配置对象


val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkSQL01_Demo")


//创建 SparkSession 对象


val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()


import spark.implicits._


//方式 1:通用的 load 方法读取


spark.read.format("jdbc")


.option("url", "jdbc:mysql://hadoop202:3306/test")


.option("driver", "com.mysql.jdbc.Driver")


.option("user", "root")


.option("password", "123456")


.option("dbtable", "user")


.load().show


//方式 2:通用的 load 方法读取 参数另一种形式


spark.read.format("jdbc")


.options(Map("url"->"jdbc:mysql://hadoop202:3306/test?user=root&password=123456",


"dbtable"->"user","driver"->"com.mysql.jdbc.Driver")).load().show


//方式 3:使用 jdbc 方法读取


val props: Properties = new Properties()


props.setProperty("user", "root")


props.setProperty("password", "123456")


val df: DataFrame = spark.read.jdbc("jdbc:mysql://hadoop202:3306/test", "user", props)


df.show


//释放资源


spark.stop()


}


}


3.3 向 JDBC 写数据


object SparkSQL03_Datasource {


def main(args: Array[String]): Unit = {


//创建上下文环境配置对象


val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkSQL01_Demo")


//创建 SparkSession 对象


val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()


import spark.implicits._


val rdd: RDD[User2] = spark.sparkContext.makeRDD(List(User2("lisi", 20), User2("zs", 30)))


val ds: Dataset[User2] = rdd.toDS


//方式 1:通用的方式 format 指定写出类型


ds.write


.format("jdbc")


.option("url", "jdbc:mysql://hadoop202:3306/test")


.option("user", "root")


.option("password", "123456")


.option("dbtable", "user")


.mode(SaveMode.Append)


.save()


//方式 2:通过 jdbc 方法


val props: Properties = new Properties()


props.setProperty("user", "root")


props.setProperty("password", "123456")


ds.write.mode(SaveMode.Append).jdbc("jdbc:mysql://hadoop202:3306/test", "user", props)


//释放资源


spark.stop()


}


}


case class User2(name: String, age: Long)


4、Hive


Apache Hive 是 Hadoop 上的 SQL 引擎,Spark SQL 编译时可以包含 Hive 支持,也可以不包含。


包含 Hive 支持的 Spark SQL 可以支持 Hive 表访问、UDF (用户自定义函数)以及 Hive 查询语言(HiveQL/HQL)等。需要强调的一点是,如果要在 Spark SQL 中包含 Hive 的库,并不需要事先安装 Hive。一般来说,最好还是在编译 Spark SQL 时引入 Hive 支持,这样就可以使用这些特性了。如果你下载的是二进制版本的 Spark,它应该已经在编译时添加了 Hive 支持。


若要把 Spark SQL 连接到一个部署好的 Hive 上,你必须把 hive-site.xml 复制到 Spark 的配置文件目录中($SPARK_HOME/conf)。即使没有部署好 Hive,Spark SQL 也可以运行,需要注意的是,如果你没有部署好 Hive,Spark SQL 会在当前的工作目录中创建出自己的 Hive 元数据仓库,叫作 metastore_db。


此外,对于使用部署好的 Hive,如果你尝试使用 HiveQL 中的 CREATE TABLE (并非 CREATE EXTERNAL TABLE)语句来创建表,这些表会被放在你默认的文件系统中的 /user/hive/warehouse 目录中(如果你的 classpath 中有配好的 hdfs-site.xml,默认的文件系统就是 HDFS,否则就是本地文件系统)。


spark-shell 默认是 Hive 支持的;代码中是默认不支持的,需要手动指定(加一个参数即可)。


4.1 使用内嵌 Hive


如果使用 Spark 内嵌的 Hive, 则什么都不用做, 直接使用即可。Hive 的元数据存储在 derby 中, 仓库地址:$SPARK_HOME/spark-warehouse。


scala> spark.sql("show tables").show


+--------+---------+-----------+


|database|tableName|isTemporary|


+--------+---------+-----------+


+--------+---------+-----------+


scala> spark.sql("create table aa(id int)")


19/02/09 18:36:10 WARN HiveMetaStore: Location: file:/opt/module/spark-local/spark-warehouse/aa specified for non-external table:aa


res2: org.apache.spark.sql.DataFrame = []


scala> spark.sql("show tables").show


+--------+---------+-----------+


|database|tableName|isTemporary|


+--------+---------+-----------+


| default| aa| false|


+--------+---------+-----------+


向表中加载本地数据数据


scala> spark.sql("load data local inpath './ids.txt' into table aa")


res8: org.apache.spark.sql.DataFrame = []


scala> spark.sql("select * from aa").show


+---+


| id|


+---+


|100|


|101|


|102|


|103|


|104|


|105|


|106|


+---+


在实际使用中, 几乎没有任何人会使用内置的 Hive。


4.2 外部 Hive 应用


如果 Spark 要接管 Hive 外部已经部署好的 Hive,需要通过以下几个步骤。(1)确定原有 Hive 是正常工作的(2)需要把 hive-site.xml 拷贝到 spark 的 conf/目录下(3)如果以前 hive-site.xml 文件中,配置过 Tez 相关信息,注释掉(4)把 Mysql 的驱动 copy 到 Spark 的 jars/目录下(5)需要提前启动 hive 服务,hive/bin/hiveservices.sh start(6)如果访问不到 hdfs,则需把 core-site.xml 和 hdfs-site.xml 拷贝到 conf/目录启动 spark-shell


scala> spark.sql("show tables").show


+--------+---------+-----------+


|database|tableName|isTemporary|


+--------+---------+-----------+


| default| emp| false|


+--------+---------+-----------+


scala> spark.sql("select * from emp").show


19/02/09 19:40:28 WARN LazyStruct: Extra bytes detected at the end of the row! Ignoring similar problems.


+-----+-------+---------+----+----------+------+------+------+


|empno| ename| job| mgr| hiredate| sal| comm|deptno|


+-----+-------+---------+----+----------+------+------+------+


| 7369| SMITH| CLERK|7902|1980-12-17| 800.0| null| 20|


| 7499| ALLEN| SALESMAN|7698| 1981-2-20|1600.0| 300.0| 30|


| 7521| WARD| SALESMAN|7698| 1981-2-22|1250.0| 500.0| 30|


| 7566| JONES| MANAGER|7839| 1981-4-2|2975.0| null| 20|


| 7654| MARTIN| SALESMAN|7698| 1981-9-28|1250.0|1400.0| 30|


| 7698| BLAKE| MANAGER|7839| 1981-5-1|2850.0| null| 30|


| 7782| CLARK| MANAGER|7839| 1981-6-9|2450.0| null| 10|


| 7788| SCOTT| ANALYST|7566| 1987-4-19|3000.0| null| 20|


| 7839| KING|PRESIDENT|null|1981-11-17|5000.0| null| 10|


| 7844| TURNER| SALESMAN|7698| 1981-9-8|1500.0| 0.0| 30|


| 7876| ADAMS| CLERK|7788| 1987-5-23|1100.0| null| 20|


| 7900| JAMES| CLERK|7698| 1981-12-3| 950.0| null| 30|


| 7902| FORD| ANALYST|7566| 1981-12-3|3000.0| null| 20|


| 7934| MILLER| CLERK|7782| 1982-1-23|1300.0| null| 10|


| 7944|zhiling| CLERK|7782| 1982-1-23|1300.0| null| 50|


+-----+-------+---------+----+----------+------+------+------+


4.3 运行 Spark SQL CLI


Spark SQLCLI 可以很方便的在本地运行 Hive 元数据服务以及从命令行执行查询任务。在 Spark 目录下执行如下命令启动 Spark SQ LCLI,直接执行 SQL 语句,类似 Hive 窗口。


bin/spark-sql


4.4 代码中操作 Hive


1)添加依赖


<dependency>


<groupId>org.apache.spark</groupId>


<artifactId>spark-hive_2.11</artifactId>


<version>2.1.1</version>


</dependency>


<dependency>


<groupId>org.apache.hive</groupId>


<artifactId>hive-exec</artifactId>


<version>1.2.1</version>


</dependency>


2)拷贝 hive-site.xml 到 resources 目录 3)代码实现


object SparkSQL08_Hive{


def main(args: Array[String]): Unit = {


//创建上下文环境配置对象


val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkSQL01_Demo")


val spark: SparkSession = SparkSession


.builder()


.enableHiveSupport()


.master("local[*]")


.appName("SQLTest")


.getOrCreate()


spark.sql("show tables").show()


//释放资源


spark.stop()


}


}


Spark SQL 实战


1、数据准备


Spark-sql 操作所有的数据均来自 Hive,首先在 Hive 中创建表,并导入数据。一共有 3 张表:1 张用户行为表,1 张城市表,1 张产品表。


CREATE TABLE user_visit_action(


date string,


user_id bigint,


session_id string,


page_id bigint,


action_time string,


search_keyword string,


click_category_id bigint,


click_product_id bigint,


order_category_ids string,


order_product_ids string,


pay_category_ids string,


pay_product_ids string,


city_id bigint)


row format delimited fields terminated by '\t';


load data local inpath '/opt/module/data/user_visit_action.txt' into table sparkpractice.user_visit_action;


CREATE TABLE product_info(


product_id bigint,


product_name string,


extend_info string)


row format delimited fields terminated by '\t';


load data local inpath '/opt/module/data/product_info.txt' into table sparkpractice.product_info;


CREATE TABLE city_info(


city_id bigint,


city_name string,


area string)


row format delimited fields terminated by '\t';


load data local inpath '/opt/module/data/city_info.txt' into table sparkpractice.city_info;


2、需求


2.1 需求简介


这里的热门商品是从点击量的维度来看的,计算各个区域前三大热门商品,并备注上每个商品在主要城市中的分布比例,超过两个城市用其他显示。

例如:


2.2 思路分析


1)使用 sql 来完成,碰到复杂的需求,可以使用 udf 或 udaf2)查询出来所有的点击记录,并与 city_info 表连接,得到每个城市所在的地区,与 Product_info 表连接得到产品名称 3)按照地区和商品名称分组,统计出每个商品在每个地区的总点击次数 4)每个地区内按照点击次数降序排列 5)只取前三名,并把结果保存在数据库中 6)城市备注需要自定义 UDAF 函数


2.3 代码实现


1)UDAF 函数定义


class AreaClickUDAF extends UserDefinedAggregateFunction {


// 输入数据的类型: 北京 String


override def inputSchema: StructType = {


StructType(StructField("city_name", StringType) :: Nil)


// StructType(Array(StructField("city_name", StringType)))


}


// 缓存的数据的类型: 北京->1000, 天津->5000 Map, 总的点击量 1000/?


override def bufferSchema: StructType = {


// MapType(StringType, LongType) 还需要标注 map 的 key 的类型和 value 的类型


StructType(StructField("city_count", MapType(StringType, LongType)) :: StructField("total_count", LongType) :: Nil)


}


// 输出的数据类型 "北京 21.2%,天津 13.2%,其他 65.6%" String


override def dataType: DataType = StringType


// 相同的输入是否应用有相同的输出.


override def deterministic: Boolean = true


// 给存储数据初始化


override def initialize(buffer: MutableAggregationBuffer): Unit = {


//初始化 map 缓存


buffer(0) = MapString, Long


// 初始化总的点击量


buffer(1) = 0L


}


// 分区内合并 Map[城市名, 点击量]


override def update(buffer: MutableAggregationBuffer, input: Row): Unit = {


// 首先拿到城市名, 然后把城市名作为 key 去查看 map 中是否存在, 如果存在就把对应的值 +1, 如果不存在, 则直接 0+1


val cityName = input.getString(0)


// val map: collection.Map[String, Long] = buffer.getMapString, Long


val map: Map[String, Long] = buffer.getAsMap[String, Long]


buffer(0) = map + (cityName -> (map.getOrElse(cityName, 0L) + 1L))


// 碰到一个城市, 则总的点击量要+1


buffer(1) = buffer.getLong(1) + 1L


}


// 分区间的合并


override def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = {


val map1 = buffer1.getAsMap[String, Long]


val map2 = buffer2.getAsMap[String, Long]


// 把 map1 的键值对与 map2 中的累积, 最后赋值给 buffer1


buffer1(0) = map1.foldLeft(map2) {


case (map, (k, v)) =>


map + (k -> (map.getOrElse(k, 0L) + v))


}


buffer1(1) = buffer1.getLong(1) + buffer2.getLong(1)


}


// 最终的输出. "北京 21.2%,天津 13.2%,其他 65.6%"


override def evaluate(buffer: Row): Any = {


val cityCountMap = buffer.getAsMap[String, Long]


val totalCount = buffer.getLong(1)


var citysRatio: List[CityRemark] = cityCountMap.toList.sortBy(-_._2).take(2).map {


case (cityName, count) => {


CityRemark(cityName, count.toDouble / totalCount)


}


}


// 如果城市的个数超过 2 才显示其他


if (cityCountMap.size > 2) {


citysRatio = citysRatio :+ CityRemark("其他", citysRatio.foldLeft(1D)(_ - _.cityRatio))


}


citysRatio.mkString(", ")


}


}


case class CityRemark(cityName: String, cityRatio: Double) {


val formatter = new DecimalFormat("0.00%")


override def toString: String = s"{formatter.format(cityRatio)}"


}


2)具体实现


object SparkSQL04_TopN {


def main(args: Array[String]): Unit = {


val spark: SparkSession = SparkSession


.builder()


.master("local[2]")


.appName("AreaClickApp")


.enableHiveSupport()


.getOrCreate()


spark.sql("use sparkpractice")


// 0 注册自定义聚合函数


spark.udf.register("city_remark", new AreaClickUDAF)


// 1. 查询出所有的点击记录,并和城市表产品表做内连接


spark.sql(


"""


|select


| c.*,


| v.click_product_id,


| p.product_name


|from user_visit_action v join city_info c join product_info p on v.city_id=c.city_id and v.click_product_id=p.product_id


|where click_product_id>-1


""".stripMargin).createOrReplaceTempView("t1")


// 2. 计算每个区域, 每个产品的点击量


spark.sql(


"""


|select


| t1.area,


| t1.product_name,


| count(*) click_count,


| city_remark(t1.city_name)


|from t1


|group by t1.area, t1.product_name


""".stripMargin).createOrReplaceTempView("t2")


// 3. 对每个区域内产品的点击量进行倒序排列


spark.sql(


"""


|select


| *,


| rank() over(partition by t2.area order by t2.click_count desc) rank


|from t2


""".stripMargin).createOrReplaceTempView("t3")


// 4. 每个区域取 top3


spark.sql(


"""


|select


| *


|from t3


|where rank<=3


""".stripMargin).show


//释放资源


spark.stop()


}


}


文章转载来源于大数据技术派


用户头像

@零度

关注

关注尚硅谷,轻松学IT 2021.11.23 加入

IT培训 www.atguigu.com

评论

发布
暂无评论
大数据培训Spark SQL知识点与实战分析_spark_@零度_InfoQ写作社区