SparkStreaming WordCount错误/语法

Abh*_*bhi -1 java hadoop word-count apache-spark spark-streaming

我指的是https://github.com/apache/spark/blob/master/examples/src/main/java/org/apache/spark/examples/streaming/JavaDirectKafkaWordCount.java并尝试构建Spark wordcount示例,但有些代码未在Eclipse中编译并显示以下错误.

抛出错误的代码是:


JavaDStream<String> words = lines.flatMap(new FlatMapFunction<String, String>() {
      @Override
      public Iterator<String> call(String x) {
        return Arrays.asList(SPACE.split(x)).iterator();
      }
    });
Run Code Online (Sandbox Code Playgroud)

编译错误:

返回类型与FlatMapFunction.call(String)不兼容

这里有详细信息:Spark 1.6.1,Java 1.7_67,Eclipse Kepler,CDH5.7我尝试过更改JDK版本并将所有Hadoop Jars添加为外部Jar,Maven依赖项,但此错误仍然存​​在.

Dan*_*nai 5

根据FlatmapFunctionJavaDoc,您应该返回一个java.lang.Iterable<String>,然后返回一个java.util.Iterator<String>.由于Iterator没有实现Iterable接口,因此代码将不兼容.幸运的是,List界面确实扩展了Iterable界面,所以你要做的就是:

  • .iterator()从创建的列表末尾删除呼叫
  • 固定的返回类型call(String x)方法是Iterable<String>

这个可能从Iterator到Iterable的更改可能发生在Spark的最新版本中,并且该示例尚未更新.