如何在 pyspark 中查找数据帧的大小(以 MB 为单位),
df=spark.read.json("/Filestore/tables/test.json") 我想知道 df 或 test.json 的大小如何
scala dataframe apache-spark pyspark databricks
apache-spark ×1
databricks ×1
dataframe ×1
pyspark ×1
scala ×1