小编Bob*_*bby的帖子

build.sbt:如何添加spark依赖项

你好我想下载spark-core,spark-streaming,twitter4j,和spark-streaming-twitter下面的build.sbt文件:

name := "hello"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.1"
libraryDependencies += "org.apache.spark" % "spark-streaming_2.10" % "1.4.1"

libraryDependencies ++= Seq(
  "org.twitter4j" % "twitter4j-core" % "3.0.3",
  "org.twitter4j" % "twitter4j-stream" % "3.0.3"
)

libraryDependencies += "org.apache.spark" % "spark-streaming-twitter_2.10" % "0.9.0-incubating"
Run Code Online (Sandbox Code Playgroud)

我只是在libraryDependencies网上这个,所以我不确定使用哪个版本等.

有人可以向我解释我应该如何解决这个.sbt文件.我花了几个小时试图搞清楚,但没有一个建议工作.我scala通过自制软件安装,我在版本上2.11.8

我的所有错误都是关于:

Modules were resolved with conflicting cross-version suffixes.
Run Code Online (Sandbox Code Playgroud)

scala sbt apache-spark spark-streaming

35
推荐指数
2
解决办法
3万
查看次数

从.txt文件向数组添加数字

嘿家伙我是java的新手,当我尝试将一个名为compact.txt的文件中的数字添加到数组中时,我遇到了这个问题.到目前为止,这是我的代码:

public void compactArray(){
    try{
        Scanner scan = new Scanner(new File("compact.txt"));
        while(scan.hasNextInt()){
            num++; 
        }
        int [] a = new int[num];
        Scanner in = new Scanner(new File("compact.txt"));
        while(counter < num){
            a[counter] = in.nextInt();
            counter++;
        }
        System.out.println(Arrays.toString(a));
    }catch(IOException bob){
        bob.getMessage(); 
    }
}
Run Code Online (Sandbox Code Playgroud)

这段代码的问题在于它永远不会停止运行.首先,我的代码读取compact.txt,然后计算它有多少数字来计算数组的大小.然后我创建另一个扫描程序变量,将compact.txt中的数字添加到数组中.我使用计数器变量作为在数组a中添加所需数量的数字时停止的方法.我不太清楚问题是什么,但它继续运行,并没有到达应该打印出阵列的行.有人可以帮帮我吗.非常感谢.

java arrays

1
推荐指数
1
解决办法
688
查看次数

sbt运行后SparkContext未初始化

我的build.sbt文件如下:

name := "hello"

version := "1.0"

scalaVersion := "2.11.8"

val sparkVersion = "1.6.1"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % sparkVersion,
  "org.apache.spark" %% "spark-streaming" % sparkVersion,
  "org.apache.spark" %% "spark-streaming-twitter" % sparkVersion
)
Run Code Online (Sandbox Code Playgroud)

我也有example.scala src/main/scala/example.scala:

import org.apache.spark._
import org.apache.spark.SparkContext._

object WordCount {
    def main(args: Array[String]) {
      val conf = new SparkConf().setAppName("wordCount").setMaster("local")
      val sc = new SparkContext(conf)
      val input =  sc.textFile("food.txt")
      val words = input.flatMap(line => line.split(" "))
      val counts = words.map(word => (word, 1)).reduceByKey{case (x, y) => …
Run Code Online (Sandbox Code Playgroud)

scala sbt

1
推荐指数
1
解决办法
789
查看次数

标签 统计

sbt ×2

scala ×2

apache-spark ×1

arrays ×1

java ×1

spark-streaming ×1