前言
LogicalPlan 表示逻辑计划,它表示 spark sql 初步解析的成果。之后的验证和优化,都是基于逻辑计划的。spark sql 使用 antrl4 解析 sql 语句生成语法树,然后遍历这棵树生成 LogicalPlan 二叉树。这篇文章介绍常见的 LogicalPlan 子类和是如何生成 LogicalPlan 树的。读者在了解 LogicalPlan 树的生成原理之前,必须先了解 antrl4 的基本用法。如果不熟悉可以参此篇文章。
LogicalPlan 类
LogicalPlan 继承QueryPlan,它的子类根据子节点的数量,分为三类:
- 没有子节点,对应 LeafNode 类
- 只有一个子节点,对应 UnaryNode 类
- 只有两个子节点,对应 BinaryNode 类
LogicalPlan 子类
常用的 LogicalPlan 子类并不多,大概有以下这些
Project 节点
1
|
case class Project(projectList: Seq[NamedExpression], child: LogicalPlan)
|
Project 节点表示 SELECT 语句中选中列的那部分。它包含了选中列的表达式,这些表达式叫做命名表达式,原理参考下篇博客。
表节点
1
|
case class UnresolvedRelation(tableIdentifier: TableIdentifier)
|
表表名由 UnresolvedRelation 类表示,在上个 sql 例子中,在 analyse 之后会转换成一个子查询 SubqueryAlias,而这个子查询包含了 Hive 表节点 HiveTableRelation。
Join 节点
1
2
3
4
5
|
case class Join(
left: LogicalPlan,
right: LogicalPlan,
joinType: JoinType,
condition: Option[Expression])
|
Join 表示sql 的 join 操作,包含两个需要 join 的子节点,join 类型 和 join 条件。join type 有下列几种:
- inner join
- left outer join
- right outer join
- full outer join
- left semi join
- left anti join
具体含义可以参见此篇文章 http://sharkdtu.com/posts/spark-sql-join.html
Filter 节点
1
|
case class Filter(condition: Expression, child: LogicalPlan)
|
Filter 节点包含了布尔表达式,对应了 sql 语句中的 WHERE 条件。
Sort 节点
1
2
3
4
|
case class Sort(
order: Seq[SortOrder], // 排序的字段或者表达式,还有排序方向
global: Boolean, // 否为全局的排序,还是分区的排序。
child: LogicalPlan)
|
如果 sql 语句中使用了 ORDER BY 语句,那么就是全局排序。
如果使用了 SORT BY 语句,那么就是局部排序,也就是只保证同个分区是有序的,但是不能保证分区合并后的结果是有序的。
Distinct 节点
1
|
case class Distinct(child: LogicalPlan)
|
如果选中的列有 DISTINCT 关键字,那么就会生成 Distinct 节点,表示需要对最后的结果去重。
Aggregate 节点
1
2
3
4
|
case class Aggregate(
groupingExpressions: Seq[Expression], // GROUP BY 的字段
aggregateExpressions: Seq[NamedExpression], // SELECT 的字段
child: LogicalPlan)
|
Aggregate 节点对应 GROUP BY 语句。
Union 节点
1
|
case class Union(children: Seq[LogicalPlan])
|
Union 节点 对应 UNION 语句。UNION 内部的每个 SELECT 语句必须拥有相同数量的列,列也必须拥有相似的数据类型。
解析类
Spark Sql 遍历语法树的逻辑定义在 AstBuilder 类。AstBuilder 使用了 visitor 模式来遍历语法树,它复写了默认的遍历方法。下面来看看两个很重要的方法:
typedVisit 提供了遍历节点,并且结果强制转换。
visitChildren 复写了父类的方法,当遍历非叶子节点时,如果该节点只有一个子节点,那么继续遍历,否则就停止遍历。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
class AstBuilder(conf: SQLConf) extends SqlBaseBaseVisitor[AnyRef] with Logging {
// 复写默认的遍历方法
override def visitChildren(node: RuleNode): AnyRef = {
// 如果该节点只有一个子节点,那么返回子节点的遍历结果
// 否则返回null
if (node.getChildCount == 1) {
node.getChild(0).accept(this)
} else {
null
}
}
// 指定返回结果类型
protected def typedVisit[T](ctx: ParseTree): T = {
ctx.accept(this).asInstanceOf[T]
}
// 访问该语法树节点,并且将结果类型转换为LogicalPlan
protected def plan(tree: ParserRuleContext): LogicalPlan = typedVisit(tree)
// 访问该语法树节点,并且将结果类型转换为Expression
protected def expression(ctx: ParserRuleContext): Expression = typedVisit(ctx)
}
|
遍历语法树
接下来我们以 antrl4 文件为主,按照从上到下的顺序来查看语法树,是如何生成 LogicalPlan 树。读者可以自行编写 sql 语句生成语法树,然后结合下面的程序一起看。
singleStatement 语法规则
首先是 singleStatement 规则,它在 AstBuilder 定义了访问自身的方法。
1
2
3
|
override def visitSingleStatement(ctx: SingleStatementContext): LogicalPlan = withOrigin(ctx) {
visit(ctx.statement).asInstanceOf[LogicalPlan]
}
|
它只是继续遍历了statement 子规则,注意到 statement 规则有多种格式,支持 USE,CREATE 等语句。而我们使用的 一般 sql 语句,匹配了 statementDefault 格式。statementDefault 格式只有一个 query 子规则,它没有定义访问方法,所以它使用了 AstBuilder 的默认访问方法,即访问 query 子规则。
query 语法规则
query 节点定义了访问自身的方法。注意到 query 语法规则,它有 ctes 和 queryNoWith 两个语法规则组成。 ctes 语法是来匹配 WITH 语句的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
override def visitQuery(ctx: QueryContext): LogicalPlan = withOrigin(ctx) {
// 首先遍历 queryNoWith 子节点,plan方法就是调用了typedVisit方法
val query = plan(ctx.queryNoWith)
// 如果由 ctes 子节点,则遍历它并且生成 With 节点,将queryNoWIth的结果当作With的子节点
query.optional(ctx.ctes) {
// 解析WITH语句中的表达式
val ctes = ctx.ctes.namedQuery.asScala.map { nCtx =>
val namedQuery = visitNamedQuery(nCtx)
(namedQuery.alias, namedQuery)
}
// Check for duplicate names.
checkDuplicateKeys(ctes, ctx)
// 生成With实例
With(query, ctes)
}
}
|
这里的 With 类是 LogicalPlan 的子类,它对应 WITH 语句。因为 WITH 语句用得不多,这里不再详细介绍。
queryNoWith 语法规则
queryNoWith 语法规则由两种格式:
- 第一种格式匹配多条语句,比如
FROM fruit SELECT *
- 第二中匹配单条数据,比如
SELECT * FROM fruit
我们一般使用第二种,它匹配了 queryNoWith 语法的 singleInsertQuery 格式,在 AstBuilder 类定义了访问此格式的方法。
1
2
3
4
5
6
7
8
9
|
override def visitSingleInsertQuery(
ctx: SingleInsertQueryContext): LogicalPlan = withOrigin(ctx) {
// 解析子节点 queryTerm,生成LogicalPlan子类
plan(ctx.queryTerm).
// Add organization statements.
optionalMap(ctx.queryOrganization)(withQueryResultClauses).
// Add insert.
optionalMap(ctx.insertInto())(withInsertInto)
}
|
singleInsertQuery 格式有三部分组成
- insertInto 规则,匹配 INSERT INTO 语句
- queryTerm 规则,匹配 SELECT 语句
- queryOrganization 规则,匹配 ORDER BY,DISTRIBUTE BY,CLUSTER BY,SORT BY 或 LIMIT 语句
当访问此节点时,依次按照 queryTerm ,queryOrganization,insertInto 顺序遍历。
queryOrganization 语法规则
queryOrganization 规则匹配了排序语句,比如:
- ORDER BY,指定全局排序
- SORT BY,指定分区排序
- DISTRIBUTE BY,指定 shuffle 按照哪个字段分区
- CLUSTER BY,等同于 SORT BY 和 DISTRIBUTE BY 的结合
它会生成 Sort 节点。
queryTerm 语法规则
queryTerm 规则有两种格式,一种是需要合并查询结果的,另一种是不需要合并。
需要合并查询结果的语句,匹配了 UNION, INTERSECT,EXCEPT 或 MINUS语句, 这些被合并的查询结果的列数目和类型都必须相同。
假设需要合并两个查询结果分别是 left 和 right
sql 语句 |
返回类型 |
含义 |
UNION ALL |
Union(left, right) |
两个查询结果相加 |
UNION DISTINCT 或 UNION 语句 |
Distinct(Union(lef, right)) |
两个查询结果相加并且去重 |
INTERSECT DISTINCT或 INTERSECT |
Intersect(left, right) |
两个查询结果的相交集合 |
EXCEPT DISTINCT或 EXCEPT |
Except(left, right) |
两个查询结果相加,但是去掉相交的部分 |
MINUS DISTINCT或 MINUS |
Except(left, right) |
两个查询结果相加,但是去掉相交的部分 |
不需要合并查询结果的语句,是一个单表查询语句。这种情况只有一个子规则 queryPrimary,而且也并没有定义这种情况的访问方法。所以它会使用AstBuilder的默认访问方式,直接访问子规则 queryPrimary。
queryPrimary 语法规则
queryPrimary 规则也有多种格式,分别对应了以下情况
- queryPrimaryDefault 格式,普通的 SELECT 语句
- table 格式,表名
- inlineTableDefault1 格式,支持使用VALUES 语句创建表
- subquery 格式,子查询
解析 table 格式,会生成 UnresolvedRelation 类,它表示表名
1
2
3
|
override def visitTable(ctx: TableContext): LogicalPlan = withOrigin(ctx) {
UnresolvedRelation(visitTableIdentifier(ctx.tableIdentifier))
}
|
解析 subquery 格式,也只是继续遍历子规则 queryNoWith。
1
2
3
|
override def visitSubquery(ctx: SubqueryContext): LogicalPlan = withOrigin(ctx) {
plan(ctx.queryNoWith)
}
|
解析 inlineTableDefault1 格式,这个用法不是很常见。举个简单的例子,
1
|
SELECT * FROM (VALUES(1, 'apple'), (2, 'orange')) AS FRUIT(ID, NAME)
|
这条语句就使用VALUES语句,创建了一张表 FRUIT,有 ID 和 NAME 两列。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
|
override def visitInlineTable(ctx: InlineTableContext): LogicalPlan = withOrigin(ctx) {
// 遍历每个表达式
val rows = ctx.expression.asScala.map { e =>
expression(e) match {
// inline table comes in two styles:
// style 1: values (1), (2), (3) -- multiple columns are supported
// style 2: values 1, 2, 3 -- only a single column is supported here
case struct: CreateNamedStruct => struct.valExprs // style 1
case child => Seq(child) // style 2
}
}
// 是否指明了列名,如果没有指定则自动生成列名(col1,col2...)
val aliases = if (ctx.identifierList != null) {
visitIdentifierList(ctx.identifierList)
} else {
Seq.tabulate(rows.head.size)(i => s"col${i + 1}")
}
// 生成 UnresolvedInlineTable 实例
val table = UnresolvedInlineTable(aliases, rows)
// 这里没弄明白,为什么有identifier属性,需要再去查看下antrl4文档,因为antrl4文件的内容被改了
// 如果指定了表名,那么就生成 SubqueryAlias 实例
table.optionalMap(ctx.identifier)(aliasPlan)
}
private def aliasPlan(alias: ParserRuleContext, plan: LogicalPlan): LogicalPlan = {
SubqueryAlias(alias.getText, plan)
}
|
可以看到 inlineTable 规则,生成了 UnresolvedInlineTable 和 SubqueryAlias 实例。
解析 queryPrimaryDefault 规则,因为它没有重新定义访问方法,所以它使用了默认访问,继续遍历它的子节点querySpecification。
querySpecification 语法规则
querySpecification 规则匹配了基础的 SELECT 语句,它几乎是 sql 的核心了。querySpecification 规则有两种格式,一种是普通的SELECT 操作,另一种是TRANSFORM 类型,它支持执行外部脚本来处理数据。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
override def visitQuerySpecification(
ctx: QuerySpecificationContext): LogicalPlan = withOrigin(ctx) {
// 如果有FROM语句,那么先调用visitFromClause方法解析
// 否则返回OneRowRelation实例,表示没有FROM语句的情况
val from = OneRowRelation.optional(ctx.fromClause) {
visitFromClause(ctx.fromClause)
}
// 继续遍历其他部分
withQuerySpecification(ctx, from)
}
override def visitFromClause(ctx: FromClauseContext): LogicalPlan = withOrigin(ctx) {
// 如果 FROM 后面接了多张表,那么默认认为这些表都是 INNER JOIN
val from = ctx.relation.asScala.foldLeft(null: LogicalPlan) { (left, relation) =>
// 遍历relation的子节点relationPrimary
val right = plan(relation.relationPrimary)
val join = right.optionalMap(left)(Join(_, _, Inner, None))
withJoinRelations(join, relation)
}
// 查看是否有 lateralView 语句
ctx.lateralView.asScala.foldLeft(from)(withGenerate)
}
// table 规则是 relationPrimary最常见的一种类型
override def visitTable(ctx: TableContext): LogicalPlan = withOrigin(ctx) {
// 返回UnresolvedRelation实例
UnresolvedRelation(visitTableIdentifier(ctx.tableIdentifier))
}
|
继续查看withQuerySpecification方法的定义
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
|
private def withQuerySpecification(
ctx: QuerySpecificationContext,
relation: LogicalPlan): LogicalPlan = withOrigin(ctx) {
import ctx._ // import QuerySpecificationContext 类的属性
// 根据WHERE语句生成Filter节点
def filter(ctx: BooleanExpressionContext, plan: LogicalPlan): LogicalPlan = {
Filter(expression(ctx), plan)
}
// 遍历SELECT选中的列
val expressions = Option(namedExpressionSeq).toSeq
.flatMap(_.namedExpression.asScala)
.map(typedVisit[Expression])
// Create either a transform or a regular query.
val specType = Option(kind).map(_.getType).getOrElse(SqlBaseParser.SELECT)
specType match {
case SqlBaseParser.MAP | SqlBaseParser.REDUCE | SqlBaseParser.TRANSFORM =>
// Transform 类型,会生成 ScriptTransformation 实例。
.......
case SqlBaseParser.SELECT =>
// 普通 select 类型
// lateral views 用来将此列数据分开,生成多行数据
val withLateralView = ctx.lateralView.asScala.foldLeft(relation)(withGenerate)
// 如果有 where 语句,那么生成Filter实例
val withFilter = withLateralView.optionalMap(where)(filter)
// 注意到这里,会对Expression子类进行处理,将其转换为NamedExpression的子类。
// 如果表达式不是NamedExpression的子类,那么生成UnresolvedAlias实例,
// UnresolvedAlias只是起到封装的作用,后面会被analyze
val namedExpressions = expressions.map {
case e: NamedExpression => e
case e: Expression => UnresolvedAlias(e)
}
// 这里的aggregation是属于QuerySpecificationContext的,因为前面已经import,所以直接使用
val withProject = if (aggregation != null) {
// 如果有聚合语句,那么调用withAggregation方法,生成聚合节点
// 如果聚合语句包含GROUPING SETS用法,那么返回GroupingSets实例
// 苟泽返回Aggregate实例
withAggregation(aggregation, namedExpressions, withFilter)
} else if (namedExpressions.nonEmpty) {
// 否则生成Project实例
Project(namedExpressions, withFilter)
} else {
// 如果聚合语句和选中列都没有,那么直接返回 withFilter
withFilter
}
// 如果有Having语句,那么生成Filter节点
val withHaving = withProject.optional(having) {
// 提取HAVING语句的表达式
val predicate = expression(having) match {
case p: Predicate => p
case e => Cast(e, BooleanType)
}
Filter(predicate, withProject)
}
// 如果有DISTINCT关键字,那么生成Distinct节点
val withDistinct = if (setQuantifier() != null && setQuantifier().DISTINCT() != null) {
Distinct(withHaving)
} else {
withHaving
}
// 如果有WINDOW语句,那么调用withWindows方法生成
val withWindow = withDistinct.optionalMap(windows)(withWindows)
// Hint 语句
hints.asScala.foldRight(withWindow)(withHints)
}
}
|
从上面可以看到如何生成了多个LogicalPlan的种类。
from 规则
A JOIN B JOIN C JOIN D
1
2
3
4
5
6
7
|
+- 'Join Inner
:- 'Join Inner
: :- 'Join Inner
: : :- 'UnresolvedRelation `A`
: : +- 'UnresolvedRelation `B`
: +- 'UnresolvedRelation `C`
+- 'UnresolvedRelation `D`
|
因为遍历的顺序,这样整个树的左边节点(不包括叶子节点)都是 JOIN 节点,其余的都是非JOIN节点。
解析 Sql 实例
这里通过解析常见的 sql 语句,来看看是如何生成 LogicalPlan 树。
1
2
3
4
5
6
7
8
9
10
11
12
13
|
CREATE TABLE fruit (
id INT,
name STRING,
price FLOAT,
amount INT
);
CREATE TABLE orders (
id INT,
fruit_id INT,
create_time TIMESTAMP,
consumer_name STRING
);
|
查询语句一
执行下列语句
1
|
SELECT * FROM fruit ORDER BY ID LIMIT 10; -- 按序列出前面10个水果
|
解析过程如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
== Parsed Logical Plan ==
'GlobalLimit 10
+- 'LocalLimit 10
+- 'Sort ['ID ASC NULLS FIRST], true
+- 'Project [*]
+- 'UnresolvedRelation `fruit`
== Analyzed Logical Plan ==
id: int, name: string, price: float, amount: int
GlobalLimit 10
+- LocalLimit 10
+- Sort [ID#0 ASC NULLS FIRST], true
+- Project [id#0, name#1, price#2, amount#3]
+- SubqueryAlias `default`.`fruit`
+- HiveTableRelation `default`.`fruit`, org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe, [id#0, name#1, price#2, amount#3]
|
首先看初步生成的结果:
Limit 语句被解析成了 GlobalLimit 和 LocalLimit 两个节点,LocalLimit 节点表示每个分区的数目限制,GlobalLimit 节点表示总的数目限制。
ORDER BY 语句被解析成了 Sort 节点,里面包含了排序的字段和排序的方向。
SELECT 语句中选择的列名,被解析成了 Project 实例。
表名被解析成了 UnresolvedRelation 节点。
再来看看解析过后的结果:
上一步的 UnresolvedRelation 节点,被解析成了 SubqueryAlias 节点,它表示一个子查询。这个子查询就是一张 Hive 表,由 HiveTableRelation 节点表示。
上一步的 Project 节点,它表示的列由 * 号表示,但是经过解析,它被变成了表里的各个列。
查询语句二
执行下列语句
1
|
SELECT fruit.name, orders.create_time, orderes.consumer_name FROM orders INNER JOIN fruit ON orders.fruit_id = fruit.id WHERE create_time > '2019-06-17';
|
解析过程如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
== Parsed Logical Plan ==
'Project ['fruit.name, 'orders.create_time, 'orders.consumer_name]
+- 'Filter ('create_time > 2019-06-17)
+- 'Join Inner, ('orders.fruit_id = 'fruit.id)
:- 'UnresolvedRelation `orders`
+- 'UnresolvedRelation `fruit`
== Analyzed Logical Plan ==
name: string, create_time: timestamp, consumer_name: string
Project [name#41, create_time#38, consumer_name#39]
+- Filter (cast(create_time#38 as string) > 2019-06-17)
+- Join Inner, (fruit_id#37 = id#40)
:- SubqueryAlias `default`.`orders`
: +- HiveTableRelation `default`.`orders`, org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe, [id#36, fruit_id#37, create_time#38, consumer_name#39]
+- SubqueryAlias `default`.`fruit`...
|
WHERE 语句被解析成了 Filter 节点,它包含了过滤的表达式
INNER JOIN 语句 被解析成了 Join 节点,它包含了 join 的表达式,并且它还有两个 UnresolvedRelation 子节点,代表着 需要 join 的两张表。