我在同一台机器上部署了辅助名称节点是我的主要名称节点:
出于性能和持久性原因,这是错误的(辅助名称节点不是热备份,但它确实有所需元数据的副本)。我找到了有关如何移动 namenode 的文档,但没有找到关于移动辅助 namenode 的文档。
有经验的人知道如何安全地做到这一点吗?
问题
第一个目标是独立运行 HBase。一旦 HBase 启动,导航到 ip:60010/master-status 就成功了。
第二个目标是运行一个独特的 ZooKeeper 仲裁。ZooKeeper已下载并已启动:
netstat -nato | grep 2181
tcp 0 0 :::2181 :::* LISTEN off (0.00/0/0)
Run Code Online (Sandbox Code Playgroud)
将conf/hbase-env.sh
改变如下:
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false
Run Code Online (Sandbox Code Playgroud)
为了避免 HBase 在 HBase 启动后启动 ZooKeeper。
但是,一旦启动了 HBase,就会出现以下错误。
Could not start ZK at requested port of 2181. ZK was started at port: 2182.
Aborting as clients (e.g. shell) will not be able to find this ZK quorum.
Run Code Online (Sandbox Code Playgroud)
题 …
更新 4,215:
查看hdfs内部的空间使用情况后,我发现 .oldlogs 使用了大量空间:
1485820612766 /hbase/.oldlogs
Run Code Online (Sandbox Code Playgroud)
所以新问题:
同样作为作业 scollector 不会监视各种 hdfs 目录的磁盘空间使用情况....
看起来以下错误在那个时候开始重复填充日志,不确定它们的确切含义:
2014-11-25 01:44:47,673 FATAL org.apache.hadoop.hbase.regionserver.wal.HLog: Could not sync. Requesting close of hlog
java.io.IOException: Reflection
at org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogWriter.sync(SequenceFileLogWriter.java:310)
at org.apache.hadoop.hbase.regionserver.wal.HLog.syncer(HLog.java:1405)
at org.apache.hadoop.hbase.regionserver.wal.HLog.syncer(HLog.java:1349)
at org.apache.hadoop.hbase.regionserver.wal.HLog.sync(HLog.java:1511)
at org.apache.hadoop.hbase.regionserver.wal.HLog$LogSyncer.run(HLog.java:1301)
at java.lang.Thread.run(Thread.java:744)
Caused by: java.lang.reflect.InvocationTargetException
at sun.reflect.GeneratedMethodAccessor30.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogWriter.sync(SequenceFileLogWriter.java:308)
... 5 more
Caused by: java.io.IOException: Failed to add a datanode. User may turn off this feature by setting dfs.client.block.write.replace-datanode-on-failure.policy in …
Run Code Online (Sandbox Code Playgroud)