Hive 解释计划理解

Vis*_*han 6 hadoop hive explain sql-execution-plan hiveql

有没有什么合适的资源可以让我们完全理解hive生成的解释计划?我曾尝试在 wiki 中搜索它,但找不到完整的指南来理解它。这是 wiki,它简要解释了解释计划的工作原理。但我需要有关如何推断解释计划的更多信息。 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Explain

Che*_*ema 6

我将尝试解释一下我所知道的。

执行计划是对查询所需任务、执行顺序以及每个任务的一些详细信息的描述。要查看查询的执行计划,您可以执行此操作,在查询前添加关键字EXPLAIN,然后运行它。执行计划可能又长又复杂。充分理解它们需要深入了解MapReduce

例子

EXPLAIN CREATE TABLE flights_by_carrier AS 
SELECT carrier, COUNT(flight) AS num 
FROM flights 
GROUP BY carrier;
Run Code Online (Sandbox Code Playgroud)

此查询CTAS statement创建一个名为 Flights_by_Carrier 的新表,并用 的结果填充该表SELECT query。按承运商对航班表的行进行分组SELECT query,并返回每个承运商以及该承运商的航班数。

该示例的 HiveEXPLAIN语句输出如下所示

+----------------------------------------------------+--+
|                      Explain                       |
+----------------------------------------------------+--+
| STAGE DEPENDENCIES:                                |
|   Stage-1 is a root stage                          |
|   Stage-0 depends on stages: Stage-1               |
|   Stage-3 depends on stages: Stage-0               |
|   Stage-2 depends on stages: Stage-3               |
|                                                    |
| STAGE PLANS:                                       |
|   Stage: Stage-1                                   |
|     Map Reduce                                     |
|       Map Operator Tree:                           |
|           TableScan                                |
|             alias: flights                         |
|             Statistics: Num rows: 61392822 Data size: 962183360 Basic stats: COMPLETE Column stats: NONE |
|             Select Operator                        |
|               expressions: carrier (type: string), flight (type: smallint) |
|               outputColumnNames: carrier, flight   |
|               Statistics: Num rows: 61392822 Data size: 962183360 Basic stats: COMPLETE Column stats: NONE |
|               Group By Operator                    |
|                 aggregations: count(flight)        |
|                 keys: carrier (type: string)       |
|                 mode: hash                         |
|                 outputColumnNames: _col0, _col1    |
|                 Statistics: Num rows: 61392822 Data size: 962183360 Basic stats: COMPLETE Column stats: NONE |
|                 Reduce Output Operator             |
|                   key expressions: _col0 (type: string) |
|                   sort order: +                    |
|                   Map-reduce partition columns: _col0 (type: string) |
|                   Statistics: Num rows: 61392822 Data size: 962183360 Basic stats: COMPLETE Column stats: NONE |
|                   value expressions: _col1 (type: bigint) |
|       Reduce Operator Tree:                        |
|         Group By Operator                          |
|           aggregations: count(VALUE._col0)         |
|           keys: KEY._col0 (type: string)           |
|           mode: mergepartial                       |
|           outputColumnNames: _col0, _col1          |
|           Statistics: Num rows: 30696411 Data size: 481091680 Basic stats: COMPLETE Column stats: NONE |
|           File Output Operator                     |
|             compressed: false                      |
|             Statistics: Num rows: 30696411 Data size: 481091680 Basic stats: COMPLETE Column stats: NONE |
|             table:                                 |
|                 input format: org.apache.hadoop.mapred.TextInputFormat |
|                 output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat |
|                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe |
|                 name: fly.flights_by_carrier       |
|                                                    |
|   Stage: Stage-0                                   |
|     Move Operator                                  |
|       files:                                       |
|           hdfs directory: true                     |
|           destination: hdfs://localhost:8020/user/hive/warehouse/fly.db/flights_by_carrier |
|                                                    |
|   Stage: Stage-3                                   |
|       Create Table Operator:                       |
|         Create Table                               |
|           columns: carrier string, num bigint      |
|           input format: org.apache.hadoop.mapred.TextInputFormat |
|           output format: org.apache.hadoop.hive.ql.io.IgnoreKeyTextOutputFormat |
|           serde name: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe |
|           name: fly.flights_by_carrier             |
|                                                    |
|   Stage: Stage-2                                   |
|     Stats-Aggr Operator                            |
|                                                    |
+----------------------------------------------------+--+
Run Code Online (Sandbox Code Playgroud)

阶段依赖性

该示例查询将分四个阶段执行stages:Stage-0 到 Stage-3。每个都stage可以是一个MapReduce作业、一个HDFS操作、一个metastore操作或由 执行的一些其他操作Hive server

编号并不表示执行顺序或依赖关系。

阶段之间的依赖关系确定它们必须执行的顺序,并Hive在结果开始时显式指定这些依赖关系EXPLAIN

根阶段(如本示例中的 Stage-1)没有依赖项,可以先自由运行。

非根阶段在其所依赖的阶段完成之前无法运行。

舞台计划

输出的阶段计划部分显示阶段的描述。对于Hive,请从顶部开始然后向下阅读。

第一阶段被确定为一项MapReduce工作。

查询计划显示该作业包括a map phase(由Map Operator Tree描述)和a reduce phase(由Reduce Operator Tree描述)。在 中map phase,地图任务读取航班表并选择承运商和航班列。

该数据被传递到reduce phase,其中reduce 任务按承运商对数据进行分组,并通过计算航班数量来聚合数据。

Stage-1 之后是 Stage-0,它是一个HDFS动作(移动)。

在此阶段,Hive将前一阶段的输出移动到 HDFS 中仓库目录中的新子目录。这是新表的存储目录,该表将命名为 Flights_by_Carrier。

Stage-0 之后是 Stage-3,这是一个metastore动作:

创建表

在此阶段,Hive在飞行数据库中创建一个名为flights_by_rier的新表。该表有两列:STRING名为 Carrier 的列和BIGINT名为 num 的列。

最后一个阶段,第二阶段,收集统计数据

最后阶段的细节并不重要,但它会收集诸如表中的行数、存储表数据的文件数HDFS以及表中每列中唯一值的数量等信息。这些统计信息可用于优化Hive查询。

  • 感谢您的回复。让我困惑的是:本质上有两个“reduce 阶段”,一个在“Map Operator Tree”中,另一个在“Reducer Operator Tree”中。您能简单描述一下它们之间的区别吗? (2认同)