我正在Cloudera 5 beta上启用安全模式。使用cloudera manager并从此处执行安全性的第8步后,cloudera manager应该触发Generate Credential命令,但不是。
所以我正在做的是手动运行“生成凭据”,但这给了我错误日志,即。
KADMIN='kadmin -k -t /etc/cloudera-scm-server/cmf.keytab -p cloudera-scm/admin@IMP.CO.IN -r IMP.CO.IN'
+ kadmin -k -t /etc/cloudera-scm-server/cmf.keytab -p cloudera-scm/admin@IMP.CO.IN -r IMP.CO.IN -q 'addprinc -randkey hue/cdh4hdm@IMP.CO.IN'
WARNING: no policy specified for hue/cdh4hdm@IMP.CO.IN; defaulting to no policy
add_principal: Operation requires ``add'' privilege while creating "hue/cdh4hdm@IMP.CO.IN".
+ kadmin -k -t /etc/cloudera-scm-server/cmf.keytab -p cloudera-scm/admin@IMP.CO.IN -r IMP.CO.IN -q 'xst -k /tmp/cmf4198733808580266866.keytab hue/cdh4hdm@IMP.CO.IN'
kadmin: Operation requires ``change-password'' privilege while changing hue/cdh4hdm@IMP.CO.IN's key
+ chmod 600 /tmp/cmf4198733808580266866.keytab
chmod: cannot access …Run Code Online (Sandbox Code Playgroud) 我们有带有 Cloudera Manager 5 的 CDH 5.2。
我们想将数据从 nameservice2 复制到 nameservice1
两个集群都在相同的 CDH 版本上
当我尝试 hadoop distcp hdfs://nameservice2/foo/bar hdfs://nameservice1/bar/foo
我有错误
java.lang.IllegalArgumentException: java.net.UnknownHostException: nameservice2
所以我将以下配置从 Nameservice2 添加到 Nameservice1
Cloudera 管理器(网关默认组)中 hdfs-site.xml 的 HDFS 客户端高级配置片段(安全阀)
<property>
<name>dfs.nameservices</name>
<value>nameservices2</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.nameservices2</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.ha.namenodes.nameservices2</name>
<value>namenode36,namenode405</value>
</property>
<property>
<name>dfs.namenode.rpc-address.nameservices2.namenode36</name>
<value>hnn001.prod.cc:8020</value>
</property>
<property>
<name>dfs.namenode.servicerpc-address.nameservices2.namenode36</name>
<value>hnn001.prod.com:54321</value>
</property>
<property>
<name>dfs.namenode.http-address.nameservices2.namenode36</name>
<value>hnn001.prod.com:50070</value>
</property>
<property>
<name>dfs.namenode.https-address.nameservices2.namenode36</name>
<value>hnn001.prod.com:50470</value>
</property>
<property>
<name>dfs.namenode.rpc-address.nameservices2.namenode405</name>
<value>hnn002.prod.com:8020</value>
</property>
<property>
<name>dfs.namenode.servicerpc-address.nameservices2.namenode405</name>
<value>hnn002.prod.com:54321</value>
</property>
<property>
<name>dfs.namenode.http-address.nameservices2.namenode405</name>
<value>hnn002.prod.com:50070</value>
</property>
<property>
<name>dfs.namenode.https-address.nameservices2.namenode405</name>
<value>hnn002.prod.com:50470</value>
</property>
Run Code Online (Sandbox Code Playgroud)
但我仍然遇到同样的错误。
任何解决方法?
谢谢
我有一个CREATE TABLE foobar AS SELECT ...在Hue中成功运行的查询(返回的状态为Inserted 986571 row(s)),需要几秒钟才能完成。但是,在Cloudera Manager中,其状态(超过10分钟)仍然显示Executing。
这是Cloudera Manager中的错误,还是此查询实际上仍在运行?
我已经对HDP 2.3集群进行了研究,并在缓存中有一个有效的TGT.
我可以通过直线控制台成功运行查询.例如,事情进展顺利.
$beeline
$!connect jdbc:hive2://<HiveServer2Host>:10000/default;principal=hive/<HiveServer2Host>@<KDC_Realm>;
Connected to: Apache Hive (version 1.2.1.2.3.2.0-2950)
Driver: Hive JDBC (version 1.2.1.2.3.2.0-2950)
Transaction isolation: TRANSACTION_REPEATABLE_READ
1: jdbc:hive2://HiveServer2Host> select * from <table>;
Run Code Online (Sandbox Code Playgroud)
我试图执行相同的查询(放在文件:query.sql)使用以下不起作用
$> beeline -u jdbc:hive2://<HiveServer2Host>:10000/default;principal=hive/<HiveServer2Host>@<KDC_Realm>; -f query.sql
Error: Could not open client transport with JDBC Uri: jdbc:hive2://<HiveServer2Host>:10000/default: Peer indicated failure: Unsupported mechanism type PLAIN (state=08S01,code=0)
Run Code Online (Sandbox Code Playgroud)
我不知道为什么会这个问题.在这两种情况下,我使用相同的jdbc URL.不确定我是否遗漏了什么.
我必须区分Cloudera包裹过程和编写食谱或厨师的食谱,以在群集中安装软件包。
因此,我在寻找Parcel相对于Chef的优势和劣势,反之亦然。
我需要 ubuntu 12.04 来安装我的 cloudera manager。它不能安装在 14.04 上。那么我如何在 mt ec2 实例中选择旧版本的 ubuntu?