小编Sou*_*hik的帖子

如何将PySpark(本地机器)连接到我的EMR集群?

我已经部署了一个由Apache Spark引导的3节点AWS ElasticMapReduce集群.从我的本地机器,我可以通过SSH 访问主节点:

ssh -i <key> hadoop@ec2-xx-xxx-xxx-xxx.compute-1.amazonaws.com ssh进入主节点后,我可以通过访问PySparkpyspark.此外,(虽然不安全)我已经配置了我的主节点的安全组,以接受来自本地计算机的IP地址的TCP流量,特别是在端口上7077.

但是,我仍然无法将本地 PySpark实例连接到我的集群:

MASTER=spark://ec2-master-node-public-address:7077 ./bin/pyspark

上面的命令会导致许多异常,并导致PySpark无法初始化SparkContext对象.

有谁知道如何成功创建一个远程连接,就像我上面描述的那样?

amazon-ec2 emr apache-spark pyspark

10
推荐指数
1
解决办法
977
查看次数

标签 统计

amazon-ec2 ×1

apache-spark ×1

emr ×1

pyspark ×1