相关疑难解决方法(0)

Spark加载数据并将文件名添加为dataframe列

我正在使用包装函数将一些数据加载到Spark中:

def load_data( filename ):
    df = sqlContext.read.format("com.databricks.spark.csv")\
        .option("delimiter", "\t")\
        .option("header", "false")\
        .option("mode", "DROPMALFORMED")\
        .load(filename)
    # add the filename base as hostname
    ( hostname, _ ) = os.path.splitext( os.path.basename(filename) )
    ( hostname, _ ) = os.path.splitext( hostname )
    df = df.withColumn('hostname', lit(hostname))
    return df
Run Code Online (Sandbox Code Playgroud)

具体来说,我使用glob来一次加载一堆文件:

df = load_data( '/scratch/*.txt.gz' )
Run Code Online (Sandbox Code Playgroud)

文件是:

/scratch/host1.txt.gz
/scratch/host2.txt.gz
...
Run Code Online (Sandbox Code Playgroud)

我想列"主机名"实际上包含文件的真实名称被加载,而不是水珠(即host1,host2等等,而不是*).

我怎样才能做到这一点?

apache-spark apache-spark-sql pyspark

24
推荐指数
1
解决办法
8622
查看次数

标签 统计

apache-spark ×1

apache-spark-sql ×1

pyspark ×1