我第一次使用Storm(从暴风雨开始学习),我的项目在运行时因ClassNotFoundException而失败:
[WARNING]
java.lang.ClassNotFoundException: TopologyMain
at java.net.URLClassLoader$1.run(Unknown Source)
at java.net.URLClassLoader$1.run(Unknown Source)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(Unknown Source)
at java.lang.ClassLoader.loadClass(Unknown Source)
at java.lang.ClassLoader.loadClass(Unknown Source)
at org.codehaus.mojo.exec.ExecJavaMojo$1.run(ExecJavaMojo.java:285)
at java.lang.Thread.run(Unknown Source)
Run Code Online (Sandbox Code Playgroud)
这些是TopologyMain和pom文件:
import spouts.WordReader;
import backtype.storm.Config;
import backtype.storm.LocalCluster;
import backtype.storm.topology.TopologyBuilder;
import backtype.storm.tuple.Fields;
import bolts.WordCounter;
import bolts.WordNormalizer;
public class TopologyMain {
public static void main(String[] args) throws InterruptedException {
//Topology definition
TopologyBuilder builder = new TopologyBuilder();
builder.setSpout("word-reader",new WordReader());
builder.setBolt("word-normalizer", new WordNormalizer())
.shuffleGrouping("word-reader");
builder.setBolt("word-counter", new WordCounter(),1)
.fieldsGrouping("word-normalizer", new Fields("word"));
//Configuration
Config conf = new Config();
conf.put("wordsFile", …Run Code Online (Sandbox Code Playgroud) 我在本地模式下运行风暴拓扑时遇到此错误。我有一个简单的程序来检查一个数是否为素数。我使用KafkaSpout作为源和风暴来处理它。Kafka 版本 2.10-0.8.2.1 风暴版本 0.9.4 zookeeper 3.4.6
下面是我检查素数的螺栓
public class PrimeNumberBolt extends BaseRichBolt
{
private static final long serialVersionUID = 1L;
private OutputCollector collector;
public void prepare( Map conf, TopologyContext context, OutputCollector collector )
{
this.collector = collector;
}
public void execute( Tuple tuple )
{
//System.out.println(tuple.getFields());
//System.out.println(tuple.getString(0));
String num = tuple.getString(0);
//int number = tuple.getInteger( 0 );
int number = Integer.parseInt(num);
//System.out.println("IN Primenumber bolt = "+number);
if( isPrime( number) )
{
System.out.println( number );
}
collector.ack( tuple …Run Code Online (Sandbox Code Playgroud) java multithreading classcastexception runtimeexception apache-storm
我正在尝试重新平衡正在运行的 Apache Storm (0.9.5) 拓扑中螺栓的执行程序数量。当我对 Nimbus 节点执行命令时,./storm rebalance MyTopology -n 2 -e GreenBolt=4它接受命令行输入,但当我在 Storm UI 中查看时,执行程序的数量没有改变。
是否有我不知道的限制,例如重新平衡不能增加执行程序的总数,而只能将它们从一个螺栓移动到另一个螺栓?
我正在寻找一个网站,下载包含KAFKA和STORM的示例项目(使用NoSQL应该更好).有人可以帮帮我吗?
最好的祝福
我想在我的项目中实现Storm实时消息处理.我观察到很多人使用'Apache Kafka'和'Storm'.
在我的项目中,客户端应用程序将向服务器端发送消息,服务器端应该对消息进行身份验证,处理它们并存储到HBase中.只有约束是不应该删除消息,每个消息都必须保存到HBase中,如果处理该消息需要几分钟就可以了.
我想知道
请你告诉我Kafka的用法.
我正在尝试在 apache-Storm 中使用并行概念。我想知道如何通过单个拓扑提交多个 spout。
这是我的单一拓扑提交代码
TwitterTopologyCreator topology = new TwitterTopologyCreator();
topology.createTopology(topologyName, clientName);
Run Code Online (Sandbox Code Playgroud) 我试图在Kafka中表示主题和子主题。示例:主题“体育”子主题“足球”、“手球”
据我所知,卡夫卡不支持这一点。我现在使用的主题是“Sports_Football”、“Sports_Handball”这样的主题...这并不是真正有用的,因为当我们需要时,当我们想要主题“Sports”以及所有子项时,我们需要查询它的所有主题。
我们还使用Redis和Apache Storm。那么请问有更好的方法吗?
我正在尝试使用HikariCP for mongodb来获得最佳的数据库连接.但是HikariCP没有mongodb的驱动程序.
让我知道是真的吗?有没有可能的方法将HikariCP与mongodb整合?
我个别理解每个是什么,但我很难在用例的差异上解决问题.
可以简要描述一下每个是什么,以及一个用例何时可以选择其他人的例子.
我的理解是Spark和Cassandra甚至没有可比性,但我的同事认为它们是同一物种.
作为大数据的新手,如果这是一个严格的意见/首选基础,我会提前道歉.如果有,请告诉我,我会把问题记下来.
apache-storm ×9
apache-kafka ×3
java ×2
apache-spark ×1
cassandra ×1
hadoop ×1
hbase ×1
hikaricp ×1
hive ×1
mongodb ×1
redis ×1