我正在构建我的第一个spark应用程序.
http://spark.apache.org/downloads.html告诉我Spark 2.x是针对Scala 2.11构建的.
在Scala网站https://www.scala-lang.org/download/all.html我看到的版本来自2.11.0 - 2.11.11
所以这是我的问题:Spark网站上的2.11究竟是什么意思.它是2.11.0 - 2.11.11范围内的任何Scala版本吗?
另一个问题:我可以使用最新的Scala 2.12.2构建我的Spark应用程序吗?我假设Scala是向后兼容的,因此使用Scala构建的Spark库可以在Scala 2.12.1应用程序中使用/调用2.11.x.我对么?