Mei*_*ome 8 hadoop-yarn apache-spark
我想开发一个Scala应用程序,它连接一个master并运行一段代码.我想在不使用spark-submit的情况下实现这一点.这可能吗?特别是我想知道以下代码是否可以从我的机器运行并连接到集群:
val conf = new SparkConf()
.setAppName("Meisam")
.setMaster("yarn-client")
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
val df = sqlContext.sql("SELECT * FROM myTable")
...
Run Code Online (Sandbox Code Playgroud)
小智 9
添加一个conf
val conf = new SparkConf()
.setAppName("Meisam")
.setMaster("yarn-client")
.set("spark.driver.host", "127.0.0.1");
是的,有可能并且基本上您所做的就是使任务在客户端部署模式下(在驱动程序在运行应用程序的计算机上运行)在YARN群集上运行的全部工作。
spark-submit帮助您使代码免于SparkConf正常执行所需的一些设置,例如主URL。如果您的代码没有底层细节,则可以将Spark应用程序部署在任何Spark群集(YARN,Mesos,Spark Standalone和本地)上,而无需重新编译它们。
| 归档时间: |
|
| 查看次数: |
6172 次 |
| 最近记录: |