我正在尝试通过Phoenix连接HBase集群.首先,我将Phoenix客户端和查询服务器jar文件复制到HMaster和HRegion lib文件夹,然后重新启动HBase服务.
服务器 - 通过/bin/queryserver.py启动Phoenix服务器.它运行正常.
客户 -
AvaticaClientRuntimeException: Remote driver error: RuntimeException: java.sql.SQLException: No suitable driver found for "http://hacluster:8764".
高可用性集群的Hbase-site.xml文件配置
<property>
<name>hbase.master</name>
<value>activenamenode:60000</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hacluster/HBase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>zk1,zk2,zk3</value>
</property>
<property> <name>hbase.rpc.timeout</name>
<value>60000</value>
<property>
Run Code Online (Sandbox Code Playgroud)
它在伪节点集群上工作.但在启用HA的Hadoop集群中失败了.
在HA Cluster中,我为文件中的hbase.rootdir属性设置了活动的namenode url而不是HA nameservice hbase-site.xml.
我想学习使用kerberos的 Hadoop 安全性。我已经从这个博客配置了 kerberos ,但不知道如何处理。
给我任何教程链接或概念来理解它。
这可能是一个愚蠢的问题,但我想知道为什么会发生......
我有一个用于 kerberos 身份验证的密钥表文件。我想使用 ktab 命令列出 keytab 文件中包含的 kvno 和主体名称。假设我的密钥表文件是 kumar.keytab
ktab -l -k kumar.keytab
Run Code Online (Sandbox Code Playgroud)
执行上述命令时,会显示kvno和principal 5次。
Keytab name: kumar.keytab
KVNO Principal
---- ----------------------------
3 Kumar/hostname@KUMAR.COM
3 Kumar/hostname@KUMAR.COM
3 Kumar/hostname@KUMAR.COM
3 Kumar/hostname@KUMAR.COM
3 Kumar/hostname@KUMAR.COM
Run Code Online (Sandbox Code Playgroud)
我的问题是为什么它显示相同的值 5 次?
帮助将不胜感激。
谢谢,
在 Windows 8 中使用 kerberos 配置 HDFS。
Namenode成功登录并启动。Datanode 未启动但登录成功。
例外
14/12/10 17:51:55 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
14/12/10 17:52:00 INFO security.UserGroupInformation: Login successful for user kumar@KUMAR.COM using keytab file C:\kumar.keytab
14/12/10 17:52:00 INFO impl.MetricsConfig: loaded properties from hadoop-metrics2.properties
14/12/10 17:52:00 INFO impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s).
14/12/10 17:52:00 INFO impl.MetricsSystemImpl: DataNode metrics system started
14/12/10 17:52:05 INFO datanode.DataNode: Configured hostname is hostname.WORKGROUP
14/12/10 17:52:05 FATAL datanode.DataNode: Exception in …Run Code Online (Sandbox Code Playgroud) 我正在windows中使用hadoop-2.6.0单节点集群.当我提交任何mapreduce作业时,它总是处于接受状态.看来我的nodemanager处于不健康的状态.如何让它健康?为什么nodemanager处于不健康状态?还是什么时候会回到健康状态?
配置NiFi 1.1.1版本在Windows中。
我已启用具有以下属性的客户端证书身份验证
nifi.properties
nifi.web.war.directory=./lib
nifi.web.http.host=
nifi.web.http.port=
nifi.web.https.host=hostname
nifi.web.https.port=8080
nifi.web.jetty.working.directory=./work/jetty
nifi.web.jetty.threads=200
nifi.security.keystore=./conf/ssl/server.keystore
nifi.security.keystoreType=JKS
nifi.security.keystorePasswd=server_password
nifi.security.keyPasswd=server_keypassword
nifi.security.truststore=./conf/ssl/server.truststore
nifi.security.truststoreType=JKS
nifi.security.truststorePasswd=server_password
nifi.security.needClientAuth=true
nifi.security.user.authorizer=file-provider
nifi.security.user.login.identity.provider=
nifi.security.ocsp.responder.url=
nifi.security.ocsp.responder.certificate=
Run Code Online (Sandbox Code Playgroud)
authorizers.xml
<authorizer>
<identifier>file-provider</identifier>
<class>org.apache.nifi.authorization.FileAuthorizer</class>
<property name="Authorizations File">./conf/authorizations.xml</property>
<property name="Users File">./conf/users.xml</property>
<property name="Initial Admin Identity"></property>
<property name="Legacy Authorized Users File">./conf/authorized-users.xml</property>
<!-- Provide the identity (typically a DN) of each node when clustered, see above description of Node Identity.
<property name="Node Identity 1"></property>
<property name="Node Identity 2"></property>
-->
</authorizer>
Run Code Online (Sandbox Code Playgroud)
授权用户.xml
<users>
<user dn="CN=Kumar">
<role name="ROLE_ADMIN"/>
<role name="ROLE_DFM"/>
</user>
</users> …Run Code Online (Sandbox Code Playgroud) 我正在使用 UTF-8 编码将字节数组转换为字符串
\n\nnew String(bytearray, StandardCharsets.UTF_8));\nRun Code Online (Sandbox Code Playgroud)\n\n它将字符串更改Impresi\xc3\xb3n为Impresi\xef\xbf\xbdn. 但是如果我执行下面的代码
new String(bytearray);\nRun Code Online (Sandbox Code Playgroud)\n\nImpresi\xc3\xb3n它给出了正确的字符串Impresi\xc3\xb3n
我想制作UTF-8编码字符串而不将任何非英文字符更改为无效字符。
\n\n任何帮助,将不胜感激。
\n是否可以使用REST API将外部数据(不是NiFi流)存储到NiFi注册表中?
https://nifi.apache.org/docs/nifi-registry-docs/index.html
据我所知,NiFi Registry专为版本化NiFi流程而设计.但我想知道它是否能够将其他数据存储到NiFi注册表中并根据版本检索它.
我想从系统剪贴板中读取数据.我可以使用下面的代码从剪贴板中获取复制的文本.但是如果我复制多个文件或文件夹怎么办呢.
码
Clipboard c=Toolkit.getDefaultToolkit().getSystemClipboard();
try {
System.out.println(c.getData(DataFlavor.stringFlavor));
} catch (Exception ex) {
System.out.println(ex);
}
Run Code Online (Sandbox Code Playgroud)
如果我在剪贴板中有复制文件列表,则相同的代码显示异常.
例外
java.awt.datatransfer.UnsupportedFlavorException: Unicode String
Run Code Online (Sandbox Code Playgroud)
如何从剪贴板中获取并打印复制的文件路径及其名称?
我已经kerberos为 Windows 设置了,hadoop-2.6.0并使用kerberos.
当提交作业或执行任何用户命令时,Hadoop 从默认位置c:\users\username\krb5cc_username引用 Kerberos 票证缓存。
我想在运行时更改此位置。是否可以更改 java 的默认属性以从系统中的某个位置引用票证缓存位置。
更新
可以使用以下命令更改默认位置
kinit -c cache_name username
Run Code Online (Sandbox Code Playgroud)
但是当我在 hadoop 上执行任何操作时,它仅使用默认的票证缓存位置来存储用户信息。如何将默认位置更改为用户特定的缓存位置?
帮助将不胜感激。
我正在关注Cookie中间件,为我的简单Web应用程序添加身份验证.
我在startup.cs配置方法中添加了以下代码.
app.UseCookieAuthentication(new CookieAuthenticationOptions()
{
AuthenticationScheme = "Cookies",
LoginPath = new PathString("/Account/Login/"),
AccessDeniedPath = new PathString("/Account/Error/"),
AutomaticAuthenticate = true,
AutomaticChallenge = true
});
Run Code Online (Sandbox Code Playgroud)
当我访问/ Home时,它会重定向到/ Account/Login但页面无法打开并收到错误消息
localhost页面不起作用:localhost重定向了你太多次了.
该网址多次添加相同的登录页面,看起来像
我做错了什么?帮我解决这个问题.
我已经为Apache NiFi-1.1.1启用了LDAP身份验证。
使用ldap用户登录后,我可以访问NiFi Web UI。
当我尝试使用基本身份验证访问REST API时/process-groups/root,它显示
Unable to perform the desired action due to insufficient permissions. Contact the system administrator.
如何将凭证传递给NiFi REST API?如何使用令牌访问NiFi REST API?
提前致谢。