我正试图从ambari开始一个hbase大师.
它无法启动它,因为它无法连接到zookeper服务器.
Ambari将所有zookeper服务器(3个节点)标记为正在运行.
运行zookeper服务器应用程序的应用程序服务器(tomcat?)似乎运行正常; 至少有一个服务侦听指定的端口.
但是应用程序无法连接到其他节点,似乎它无法启动.
所有连接都关闭ZooKeeperServer not running,并zookeeper.ClientCnxn: Unable to read additional data from server sessionid 0x0, likely server has closed socket在zookeeper服务器日志和客户端上显示错误消息.
这是这些节点的zookeper服务器日志输出(所有节点的日志相同,只有节点名称更改):
2016-03-31 16:15:34,550 - INFO  [main:QuorumPeerConfig@103] - Reading configuration from: /usr/hdp/current/zookeeper-server/conf/zoo.cfg
2016-03-31 16:15:34,553 - INFO  [main:QuorumPeerConfig@338] - Defaulting to majority quorums
2016-03-31 16:15:34,557 - INFO  [main:DatadirCleanupManager@78] - autopurge.snapRetainCount set to 30
2016-03-31 16:15:34,557 - INFO  [main:DatadirCleanupManager@79] - autopurge.purgeInterval set to 24
2016-03-31 16:15:34,558 - INFO  [PurgeTask:DatadirCleanupManager$PurgeTask@138] - Purge task started.
2016-03-31 16:15:34,565 - …我试图在YARN模式下使用spark submit在hadoop集群上启动spark任务.
我正从我的开发机器启动spark-submit.
根据Running Spark On YARN文档,我应该在env var HADOOP_CONF_DIR或YARN_CONF_DIR.上提供hadoop集群配置的路径.这是一个棘手的问题:如果我将任务发送到远程YARN服务,为什么这些文件夹必须存在于我的本地计算机上?这是否意味着spark-submit必须位于群集内部,因此我无法远程启动spark任务?如果没有,我应该用这些文件夹填充什么?我应该从任务管理器服务所在的YARN群集节点复制hadoop配置文件夹吗?
我试过了:
Whitelist.relaxed();
Whitelist.relaxed().preserveRelativeLinks(true);
Whitelist.relaxed().addProtocols("a","href","#","/","http","https","mailto","ftp");
Whitelist.relaxed().addProtocols("a","href","#","/","http","https","mailto","ftp").preserveRelativeLinks(true);
它们都不起作用:当我尝试清除相对网址时,就像<a href="/test.xhtml">test</a>我href删除了属性(<a>test</a>)。
我正在使用JSoup 1.8.2。
有任何想法吗?
我有一个小的PHP项目(大约3000行),我需要制作它的BASIC UML模型,从使用图,序列图和状态图的情况开始,可能是类图,并可能用协作图扩展它.
我是UML建模的新手,这是我第一次将模型从实现中取出而不是相反(不是非常有用,除非你进入逆向工程,但无论如何,这是一个分配)
现在,我应该如何处理这个问题?如果我的项目有OO实现,一些UML工具可以让我的生活变得非常简单,但事实并非如此,所以我想知道我是否应该将我的项目重写为OO以及如何做(我的意思是,是否有一些标准的基础我应遵循的指导方针或程序?),或者我是否应该按原样制作项目模型(在这种情况下,哪种建模工具最好).
我的项目也是在Eclipse IDE上编写的,有人知道它的任何插件来帮助我完成这个UML建模任务吗?
有没有办法在SQL中发送递归查询?
给定结束节点id,我需要所有行到根节点(有parentid = NULL)按级别排序.例如,如果我有类似的东西:
nodeid | parentid
a      | NULL    
b      | a       
c      | b       
在查询之后end_node_id = c,我会得到类似的东西:
nodeid | parentid | depth
a      | NULL     | 0
b      | a        | 1
c      | b        | 2
(而不是深度,我也可以使用到给定端节点的距离)
我能想到的唯一(也是显而易见的)方法是每行执行一次查询,直到到达父节点.
有没有更有效的方法呢?
sql tree recursive-query hierarchical-data hierarchical-query
我刚刚使用Cygwin的gcc编译了这个C程序:
#include <stdio.h>
void main (){
    char *str;
    gets(str);
    printf("%s",str);
}
撇开gets被弃用走了,这是应该打破,因为我不是为分配任何STR内存,但它的工作原理,即使很长的输入.例如,如果我设置了char str [16],它会在超过分配的长度后中断几个字符.
为什么我没有得到分段错误?