Hadoop dfs错误:INFO ipc.Client:重试连接到服务器:localhost

sth*_*oly 7 hadoop localhost cluster-computing

我已经成功设置了一个包含6个节点的Hadoop集群(master,salve <1-5>)

  • 格式化namenode - >完成
  • 启动和关闭群集 - >工作正常
  • 执行"hadoop dfs -ls /"会出现此错误 - > 错误:INFO ipc.Client:重试连接到服务器:localhost

我试图看到运行的服务使用:

sudo netstat -plten | grep java
hduser@ubuntu:~$ sudo netstat -plten | grep java
Run Code Online (Sandbox Code Playgroud)

tcp 0 0 0.0.0.0:50070 0.0.0.0:*LISTEN 1000 93307 11384/java
tcp 0 0 0.0.0.0:44440 0.0.0.0:*LISTEN 1000 92491 11571/java
tcp 0 0 0.0.0.0:40633 0.0.0.0:*LISTEN 1000 92909 11758/java
tcp 0 0 0.0.0.0:50010 0.0.0.0:*LISTEN 1000 93449 11571/java
tcp 0 0 0.0.0.0:50075 0.0.0.0:*LISTEN 1000 93673 11571/java
tcp 0 0 0.0. 0.0:50020 0.0.0.0:*LISTEN 1000 93692 11571/java
tcp 0 0 127.0.0.1:40485 0.0.0.0:*LISTEN 1000 93666 12039/java
tcp 0 0 0.0.0.0:44582 0.0.0.0:*LISTEN 1000 93013 11852/java
tcp 0 0 10.42.43.1:54310 0.0.0.0:*LISTEN 1000 92471 11384/java
tcp 0 0 10.42.43.1:54311 0.0.0.0:*LISTEN 1000 93290 11852/java
tcp 0 0 0.0.0.0:50090 0.0.0.0:*LISTEN 1000 93460 11758/java
tcp 0 0 0.0. 0.0:34154 0.0.0.0:*LISTEN 1000 92179 11384/java
tcp 0 0 0.0.0.0:50060 0.0.0.0:*LISTEN 1000 94200 12039/java
tcp 0 0 0.0.0.0:50030 0.0.0.0:*LISTEN 1000 93550 11852/java

它的主IP绑定到端口54310和54311而不是localhost(环回).

conf-site.xml已正确配置:

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hduser/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://master:54310</value>
</property>
</configuration>
Run Code Online (Sandbox Code Playgroud)

为什么期望localhost被绑定到54310而不是我在这里配置的主人.帮助赞赏.我该如何解决这个问题?

干杯

sth*_*oly 1

显然,在我添加新的 hadoop(1.0.4) bin 目录之前,有人将旧的 hadoop(1.0.3) bin 目录添加到了路径变量中。因此,每当我从 CLI 运行“hadoop”时,它都会执行旧 hadoop 的二进制文件,而不是新的。

解决方案:

  • 删除旧hadoop的整个bin路径

  • 关闭集群-退出终端

  • 在新的终端会话中登录

  • 启动节点

  • 尝试过hadoop dfs -ls /-> 效果很好!!!很好的教训。