在spark-SQL而不是spark-scala中创建“临时”表?

Dmi*_*rov 0 hiveql apache-spark apache-spark-sql

我已经从输入文件加载了一个表。

CREATE TABLE MyTable (
    ID INT,
    VALUE FLOAT,
    RATE  INT
...

LOAD DATA LOCAL INPATH 'MYPATH' INTO TABLE MyTable;
Run Code Online (Sandbox Code Playgroud)

现在我想基于这个创建一个新的

DerivedTable = 
    SELECT ID, VALUE*RATE AS Total
    FROM MyTable
    WHERE VALUE IS NOT NULL;
Run Code Online (Sandbox Code Playgroud)

然后我将使用该表作为其他表和输出的源。

创建此“临时”表的正确 Sql(或 Hive)方法是什么?这应该适用于spark-sql

PS:我知道如何在 Spark-Shell 中做到这一点。但这不是我要找的。

hi-*_*zir 6

你可以:

CREATE TEMPORARY VIEW DerivedTable AS (
   SELECT ID, VALUE*RATE AS Total
   FROM MyTable
   WHERE VALUE IS NOT NULL);
Run Code Online (Sandbox Code Playgroud)