del*_*met 13 hadoop hbase amazon-ec2
我知道我可以拆分安装了Hadoop的EC2集群(除非我错了).Hbase怎么样?我可以预先制作Hadoop和Hbase吗?或者我需要弄脏手.如果不是一种选择,最佳选择是什么?Cloudera显然有两个包.这是要走的路吗?
谢谢您的帮助.
hbase有一套ec2脚本,可以让你快速安装并准备好.它允许您配置zk服务器和从属节点的数量,但我不确定它们可用的版本.我正在使用0.20.6.设置完一些S3/EC2信息后,您可以执行以下操作:
/usr/local/hbase-0.20.6/contrib/ec2/bin/launch-hbase-cluster CLUSTERNAME SLAVES ZKSERVERS
快速开始使用群集.这很好,因为它也会为你安装LZO信息.
以下是bin目录中环境文件中可能有用的一些参数(如果需要20.6 AMI):
# The version of HBase to use.
HBASE_VERSION=0.20.6
# The version of Hadoop to use.
HADOOP_VERSION=0.20.2
# The Amazon S3 bucket where the HBase AMI is stored.
# Change this value only if you are creating your own (private) AMI
# so you can store it in a bucket you own.
#S3_BUCKET=apache-hbase-images
S3_BUCKET=720040977164
# Enable public access web interfaces
ENABLE_WEB_PORTS=false
# Extra packages
# Allows you to add a private Yum repo and pull packages from it as your
# instances boot up. Format is <repo-descriptor-URL> <pkg1> ... <pkgN>
# The repository descriptor will be fetched into /etc/yum/repos.d.
EXTRA_PACKAGES=
# Use only c1.xlarge unless you know what you are doing
MASTER_INSTANCE_TYPE=${MASTER_INSTANCE_TYPE:-c1.xlarge}
# Use only c1.xlarge unless you know what you are doing
SLAVE_INSTANCE_TYPE=${SLAVE_INSTANCE_TYPE:-c1.xlarge}
# Use only c1.medium unless you know what you are doing
ZOO_INSTANCE_TYPE=${ZOO_INSTANCE_TYPE:-c1.medium}
Run Code Online (Sandbox Code Playgroud)
如果未在ami中设置JAVA_HOME,您可能还需要设置java版本(我不认为).较新版本的hbase可能在S3存储桶中可用,只需执行描述实例,并使用greo for hadoop/hbase来缩小结果范围.
| 归档时间: |
|
| 查看次数: |
5032 次 |
| 最近记录: |