Chr*_*rts 11 apache-spark apache-spark-sql pyspark
我想使用DataFrameWriter在Spark1.4中的pyspark中将DataFrame保存到S3
df = sqlContext.read.format("json").load("s3a://somefile")
df_writer = pyspark.sql.DataFrameWriter(df)
df_writer.partitionBy('col1')\
.saveAsTable('test_table', format='parquet', mode='overwrite')
Run Code Online (Sandbox Code Playgroud)
镶木地板文件转到"/ tmp/hive/warehouse/....",这是我的驱动程序上的本地tmp目录.
我确实在hive-site.xml中将hive.metastore.warehouse.dir设置为"s3a:// ...."位置,但是火花似乎与我的hive仓库设置无关.
Chr*_*rts 27
使用path
.
df_writer.partitionBy('col1')\
.saveAsTable('test_table', format='parquet', mode='overwrite',
path='s3a://bucket/foo')
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
23562 次 |
最近记录: |