我设法在Yarn上启动了一个spark应用程序.但是,如下所示,emory的使用有点奇怪:
http://imgur.com/1k6VvSI
记忆保留意味着什么?如何有效地使用所有可用内存?
提前致谢.
hadoop hadoop-yarn apache-spark hadoop2
apache-spark ×1
hadoop ×1
hadoop-yarn ×1
hadoop2 ×1