无法设置路径:\ tmp的权限

use*_*321 6 hadoop

Failed to set permissions of path: \tmp\hadoop-MayPayne\mapred\staging\MayPayne2016979439\.staging to 0700 
Run Code Online (Sandbox Code Playgroud)

我在执行MapReduce作业时遇到此错误,我使用的是hadoop 1.0.4,然后我知道这是一个已知问题,我尝试使用1.2.0,但问题仍然存在.我能否知道他们已经解决了这个问题的hadoop版本.

谢谢大家

Vir*_*gic 11

我在Windows 7上运行nutch-1.7时遇到了同样的异常.

bin/nutch crawl urls -dir crawl11 -depth 1 -topN 5
Run Code Online (Sandbox Code Playgroud)

以下步骤对我有用

  1. 下载部分下载预构建的JAR,patch-hadoop_7682-1.0.x-win.jar .你可以得到hadoop的步骤.
  2. 将patch-hadoop_7682-1.0.x-win.jar复制到$ {NUTCH_HOME}/lib目录
  3. 修改$ {NUTCH_HOME} /conf/nutch-site.xml以启用覆盖实现,如下所示:

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <!-- Put site-specific property overrides in this file. -->
    <configuration>
        <property>
            <name>fs.file.impl</name>
            <value>com.conga.services.hadoop.patch.HADOOP_7682.WinLocalFileSystem</value>
            <description>Enables patch for issue HADOOP-7682 on Windows</description>
        </property>
     </configuration>
    
    Run Code Online (Sandbox Code Playgroud)
  4. 像往常一样运行你的工作(使用Cygwin).


Muh*_*man 5

下载hadoop-core-0.20.2.jar并将其放在nutcher的lib目录下解决了我的问题

(如果是windows)如果还没有解决,请尝试使用这个hadoop的补丁


use*_*321 -4

我设法通过稍微更改 hadoop-core jar 文件来解决这个问题。更改了 hadoop-core.jar 文件中 FileUtil.java 中导致错误的方法,并重新编译并包含在我的 eclipse 项目中。现在错误消失了。我建议你们每个人都这样做。