sof*_*fia 7 scala sbt apache-spark
我正在尝试为我在sbt/scala中编写的一些代码生成文档.
这是sbt配置文件
name := "My project"
version := "1.0"
libraryDependencies += "org.scala-lang" % "scala-compiler" % scalaVersion.value
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.2.0"
libraryDependencies += "org.apache.spark" %% "spark-graphx" % "1.2.0"
Run Code Online (Sandbox Code Playgroud)
生成的文档没有错误,但生成的文档文件包含如下内容:
def getGraph(): <error>
def getLabelMap(): HashMap[<error>, String]
def setGraph(graph: <error>): Unit
def setLabelMap(map: HashMap[<error>, String]): Unit
Run Code Online (Sandbox Code Playgroud)
所有的<error>领域都属于org.apache.spark.graphx和org.apache.spark包(在本例线之上,而不是<error>我应该得到Graph,VertexId等).
我应该在sbt配置文件中添加什么才能解决这个问题?干杯
对于任何感兴趣的人,我找到了答案,我必须添加这样的内容
scalacOptions in (Compile, doc) := Seq(
"-external-urls:scala=https://spark.apache.org/docs/1.1.0/api/scala",
"-external-urls:org.apache.spark=https://spark.apache.org/docs/0.9.1/api/graphx"
)
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
95 次 |
| 最近记录: |