ali*_*uya 5 caching scala dataframe apache-spark
这是我的用例。
问题在于第4步不会节省任何费用。这是否意味着在第3步之后,df3会发生变化?我已经对df1至df5使用cache()了。但是,如果我检查了Spark Web UI存储,如果源已更改,则df5似乎将重新计算。所有数据帧都是100%缓存的。
| 归档时间: |
|
| 查看次数: |
97 次 |
| 最近记录: |