Jes*_*Jes 7 scala apache-spark rdd
我很好奇究竟是什么将一个RDD传递给一个函数在Spark中.
def my_func(x : RDD[String]) : RDD[String] = {
do_something_here
}
Run Code Online (Sandbox Code Playgroud)
假设我们定义了一个如上所述的函数.当我们调用该函数并传递一个现有的RDD [String]对象作为输入参数时,这个my_function是否为该RDD作为函数参数进行"复制"?换句话说,它是通过引用调用还是按值调用?