在设计分布式存储和分析架构时,在与数据节点相同的机器上运行分析引擎是否是一种常见的使用模式?具体来说,直接在Cassandra/HDFS节点上运行Spark/Storm是否有意义?
我知道HDFS上的MapReduce具有这种使用模式,因为根据Hortonworks,YARN最小化了数据运动.我不知道这些其他系统是否就是这种情况.我想这是因为它们似乎彼此可插拔,但我似乎无法在网上找到任何关于此的信息.
我是这个主题的新手,所以任何资源或答案都将非常感激.
谢谢
我无法相信我在如此微不足道的事情上遇到这么多麻烦.
无论出于何种原因,这些代码行导致了 nullpointerexception
Card[] arr = new Card[2];
System.out.print(arr[0].val + "\n"); //this is the line throwing the error
Run Code Online (Sandbox Code Playgroud)
卡被定义为
public class Card {
public int val;
public char suit;
}
Run Code Online (Sandbox Code Playgroud)
编译成功,我确保它引用了正确的类.我觉得我忽略了一些小细节.
我也注意到了
Card a = new Card();
Card b = new Card();
Card[] arr = {a, b};
System.out.print(arr[0].val + "\n");
Run Code Online (Sandbox Code Playgroud)
工作得非常好.