使用时启动火花簇spark-ec2,该--ebs-vol-size标志似乎无效.使用50或设置它500然后ssh'ing进入主节点,a df -h显示大约10G的空间/.
如何使用spark-ec2创建更大的EC2虚拟机?
下面提供了一些精心设计的步骤列表,对我有用 -
关闭hadoop on ./ephemeral-hdfs
./ephemeral-hdfs/bin/stop-all.sh
在./persistent-hdfs上启动hadoop
./persistent-hdfs/bin/start-all.sh
您可以验证当前大小是否未反映所请求的ebs卷大小
./persistent-hdfs/bin/hadoop dfsadmin -report
运行以下命令(建议将它们放入脚本中)并运行它 -
./persistent-hdfs/bin/stop-all.sh
sed -i的#vol/persistent-hdfs#vol0/persistent-hdfs#g'~/persistent-hdfs/conf/core-site.xml
./spark-ec2/copy-dir.sh~/ persistent-hdfs/conf/core-site.xml
./spark-ec2/copy-dir.sh~/ persistent-hdfs/conf/hdfs-site.xml
./persistent-hdfs/bin/hadoop namenode -format
./persistent-hdfs/bin/start-all.sh
重复步骤4以验证大小
学分 - brendancol的要点参考
| 归档时间: |
|
| 查看次数: |
232 次 |
| 最近记录: |