我如何要求 hive 提供更详细的错误?

dai*_*isy 10 hive

当我运行时hive,它显示以下错误

[hadoop@a74f90aecdad tmp]$ hive
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/hive/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Exception in thread "main" java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V
    at org.apache.hadoop.conf.Configuration.set(Configuration.java:1357)
    at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338)
    at org.apache.hadoop.mapred.JobConf.setJar(JobConf.java:536)
    at org.apache.hadoop.mapred.JobConf.setJarByClass(JobConf.java:554)
    at org.apache.hadoop.mapred.JobConf.<init>(JobConf.java:448)
    at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:5141)
    at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:5099)
    at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:97)
    at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:81)
    at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:699)
    at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:683)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at org.apache.hadoop.util.RunJar.run(RunJar.java:323)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:236)
Run Code Online (Sandbox Code Playgroud)

这是什么意思?是否可以显示更多详细信息?

Abh*_*ped 23

当使用一个版本的 Jar 编译程序并在同一 Jar 的其他(通常是旧)版本上执行程序时,会弹出此错误。在这个场景中,Hadoop 和 Hive 之间的 guava Jar 文件版本可能存在冲突。

第 1 步:转到HADOOP_INSTALLATION_DIR/share/hadoop/common/lib并检查 guava.jar 版本

第 2 步:现在转到HIVE_INSTALLATION_DIR/lib并将 hive 的 guava 文件版本与 hadoop 进行比较。如果不一样,删除其中较旧的版本,并在两者中复制较新的版本。

  • 我正在使用 hadoop 3.2.1(带有 guava-27.0-jre.jar Listenablefuture-9999.0-empty-to-avoid-conflict-with-guava.jar)和 hive 3.1.2(带有 guava-19.0.jar),我将 guava-19.0.jar 替换为 guava-27.0-jre.jar,但仍然不起作用,Exception in thread "main" java.lang.RuntimeException: com.ctc.wstx.exc.WstxParsingException: 非法字符实体:扩展字符 ( [行,列,系统 ID] 处的代码 0x8:[3215,96,“文件:/usr/src/hive/conf/hive-site.xml”] (4认同)
  • hadoop安装目录中库的正确路径是HADOOP_INSTALLATION_DIR/share/hadoop/common/lib (2认同)
  • @EdyeChan我的版本几乎与你相同 - hadoop 3.2.1(带有 guava-27.0-jre.jar) - hive 2.3.6(带有 guava-14.0.1.jar) 我从复制了 guava-27.0-jre.jar HADOOP_INSTALLATION_DIR/share/hadoop/common/lib 到 HIVE_INSTALLATION_DIR/lib 并解决了问题。 (2认同)

Tim*_*tes 12

总结我对超级用户的类似问题的回答:https : //superuser.com/a/1501841/115371

Hadoop 核心在HADOOP-15960 中更新了其 Guava 版本,该版本在Hadoop 3.0.4、3.1.3 和 3.2.1 中消失。

Hive 3.1.2 提供了自己不兼容的 Guava 版本,不仅在lib/guava-*.jar,而且hive-exec-*.jar是一个重新打包多个外部库的“胖 JAR”。Hive 服务/CLI 不能在没有 的情况下运行hive-exec-*.jar,这意味着我们不能仅仅通过删除guava-*.jar来解决兼容性问题。

目前,唯一的选择是:

  • 从最新源构建 Hive,其中应包含HIVE-22126以解决该hive-exec-*.jar问题,或
  • 使用 Hadoop 3.0.3、3.2.0 或 3.1.2,即 HADOOP-15960 之前的最后一个版本。但请注意,这些 Hadoop 版本附带的 Guava JAR 有一个已知漏洞CVE-2018-10237