Utk*_*rsh 3 python apache-spark parquet pyspark
如何在PySpark中指定镶木地板块大小和页面大小?我到处搜索,但是找不到函数调用或导入库的任何文档。
小智 5
根据火花用户档案
sc.hadoopConfiguration.setInt("dfs.blocksize", some_value)
sc.hadoopConfiguration.setInt("parquet.block.size", some_value)
Run Code Online (Sandbox Code Playgroud)
所以在PySpark
sc._jsc.hadoopConfiguration().setInt("dfs.blocksize", some_value)
sc._jsc.hadoopConfiguration().setInt("parquet.block.size", some_value)
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
842 次 |
| 最近记录: |