Kau*_*hal 3 jvm permgen apache-spark apache-spark-sql
我已经配置了3个Node Spark Cluster.并使用start-thriftserver.sh
带有一些自定义属性的脚本启动Spark Thrift Service .并且还在群集的spark.executor.extraJavaOptions -XX:MaxPermSize=1024m -XX:PermSize=256m
每个spark-default.sh
文件中添加了属性.
使用Hive JDBC驱动程序,我能够连接spark-sql,尝试了一些查询.
但是过了一段时间它就会抛出PermGen Space
错误.并且在重启thrift服务这么多次之后它会抛出相同的错误.
最后我得到了解决方案.
我经历了应用程序日志,由Spark驱动程序发生permgen错误,所以spark.executor.extraJavaOptions
我选择了-XX:MaxPermSize=1024m -XX:PermSize=256m
属性而不是spark.driver.extraJavaOptions
选项.
归档时间: |
|
查看次数: |
3390 次 |
最近记录: |