我想将 hbase 类路径添加到我的 spark 中,但是在运行hbase classpath命令时出现错误。
我在 env 中使用 java 1.8 在本地设置了 hadoop 3.2.0。
$ hbase 类路径
/usr/lib/hadoop/libexec/hadoop-functions.sh:第 2364 行:HADOOP_ORG.APACHE.HADOOP.HBASE.UTIL.GETJAVAPROPERTY_USER:无效的变量名称 /usr/lib/hadoop/libexec/hadoop-functions.sh:第 2459 行:HADOOP_ORG.APACHE.HADOOP.HBASE.UTIL.GETJAVAPROPERTY_OPTS:无效的变量名错误:无法找到或加载主类org.apache.hadoop.hbase.util.GetJavaProperty
小智 2
显然是老问题,但您的配置可能是错误的。
这可能是由于权限不足造成的。您可能想尝试“sudo”和命令来排除故障。此修复确认我在执行 hadoop-functions.sh 中的命令时遇到权限问题。
| 归档时间: |
|
| 查看次数: |
680 次 |
| 最近记录: |