标签: spark-ec2

使用spark-ec2更改hadoop版本

我想知道是否可以在spark-ec2创建集群时更改hadoop版本?

我试过了

spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 launch my-spark-cluster
Run Code Online (Sandbox Code Playgroud)

然后我登录

spark-ec2 -k spark -i ~/.ssh/spark.pem login my-spark-cluster
Run Code Online (Sandbox Code Playgroud)

并发现hadoop版本是1.0.4.

我想使用2.x版本的hadoop,配置它的最佳方法是什么?

hadoop amazon-ec2 apache-spark spark-ec2

9
推荐指数
1
解决办法
1136
查看次数

Spark:如何增加奴隶的驱动器大小

如何启动具有每个具有100GB驱动器的从属的群集.

./spark-ec2 -k xx -i xx.pem -s 1 --hadoop-major-version=yarn --region=us-east-1 \
--zone=us-east-1b  --spark-version=1.6.1 \
--vpc-id=vpc-xx --subnet-id=subnet-xx --ami=ami-yyyyyy \
 launch cluster-test
Run Code Online (Sandbox Code Playgroud)

我使用了大小为100GB的AMI; 然而,Spark调整了大小并启动​​了8GB驱动器.如何将此限制增加到100GB?

amazon-ec2 ec2-ami apache-spark spark-ec2

5
推荐指数
1
解决办法
72
查看次数

标签 统计

amazon-ec2 ×2

apache-spark ×2

spark-ec2 ×2

ec2-ami ×1

hadoop ×1