这是来自hadoop-datanode -...日志的日志:
FATAL org.apache.hadoop.hdfs.server.datanode.DataNode:块池Block-Block的初始化失败BP-1421227885-192.168.2.14-1371135284949(存储ID DS-30209445-192.168.2.41-50010-1371109358645)服务到/192.168 .2.8:8020 org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.protocol.DisallowedDatanodeException):Datanode拒绝与namenode通信:DatanodeRegistration(0.0.0.0,storageID = DS-30209445-192.168.2.41 -50010-1371109358645,infoPort = 50075,ipcPort = 50020,storageInfo = lv = -40; cid = CID-f16e4a3e-4776-4893-9f43-b04d8dc651c9; nsid = 1710848135; c = 0)org.apache.hadoop.hdfs org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:3498)中的.server.blockmanagement.DatanodeManager.registerDatanode(DatanodeManager.java:648)
我的错误:namenode可以启动,datanode无法启动
小智 9
我也看过这个,namenode服务器需要做一个反向查找请求,所以一个nslookup 192.168.2.41应该返回一个名字,它不会这样,0.0.0.0也会被记录
如果你的dns正常工作(即in-addr.arpa文件与域文件中的条目匹配),你不需要将地址硬编码到/ etc/hosts中但是如果你没有dns那么你需要帮助hadoop out .