在配置hadoop 0.23.8时出现以下错误"Datanode拒绝与namenode通信"

ano*_*123 16 hadoop microsoft-distributed-file-system hdfs

我试图在我的macbook上配置hadoop 0.23.8并运行以下异常

org.apache.hadoop.hdfs.server.protocol.DisallowedDatanodeException: Datanode denied communication with namenode: 192.168.1.13:50010
at org.apache.hadoop.hdfs.server.blockmanagement.DatanodeManager.registerDatanode(DatanodeManager.java:549)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:2548)
at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.registerDatanode(NameNodeRpcServer.java:784)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.ipc.WritableRpcEngine$Server.call(WritableRpcEngine.java:394)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1571)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1567)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1262)
at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1565)
Run Code Online (Sandbox Code Playgroud)

我的core-site.xml看起来像这样

<configuration>
<property>
<name>dfs.federation.nameservices</name>
<value>ns1</value>
</property>

<property>
<name>dfs.namenode.rpc-address.ns1</name>
<value>192.168.1.13:54310</value>
</property>

<property>
<name>dfs.namenode.http-address.ns1</name>
<value>192.168.1.13:50070</value>
</property>

<property>
<name>dfs.namenode.secondary.http-address.ns1</name>
<value>192.168.1.13:50090</value>
</property>
</configuration>
Run Code Online (Sandbox Code Playgroud)

关于我可能做错的任何想法?

chr*_*ini 32

与2.6.0有同样的问题,shamouda的答案解决了它(我根本没用dfs.hosts,所以这不是答案.我确实添加了

<property>
  <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
  <value>false</value>
</property>
Run Code Online (Sandbox Code Playgroud)

hdfs-site.xml,这足以解决问题.


小智 7

我遇到了与Hadoop 2.6.0相同的问题,我案例的解决方案与Tariq的答案不同.

我无法在/ etc/hosts中列出IP主机映射,因为我使用DHCP动态设置IP.

问题是我的DNS不允许反向DNS查找(即查找给定IP的主机名),并且只要datanode尝试使用namenode注册,HDFS默认使用反向DNS查找.幸运的是,可以通过在hdfs-site.xml中将此属性"dfs.namenode.datanode.registration.ip-hostname-check"设置为false来禁用此行为

如何知道您的DNS不允许反向查找?ubuntu中的答案是使用命令"host".如果它可以解析主机名,则启用反向查找.如果失败,则禁用反向查找.

参考文献:1.http ://rrati.github.io/blog/2014/05/07/apache-hadoop-plus-docker-plus-fedora-running-images/ 2. https://hadoop.apache.org/文档/ r2.6.0/Hadoop的项目-距离/ Hadoop的HDFS/HDFS-default.xml中


Tar*_*riq 6

看起来像名称解析问题给我.可能的原因:

Machine is listed in the file defined by dfs.hosts.exclude

dfs.hosts is used and the machine is not listed within that file
Run Code Online (Sandbox Code Playgroud)

还要确保您拥有hosts文件中列出的计算机的IP +主机名.

HTH