spark中的memory_only和memory_and_disk缓存级别的行为有何不同?
caching apache-spark
这是我正在尝试的代码
test((1, 3)) def test(a :Tuple2)={ println(a) }
编译错误 - 类型不匹配,预期:Tuple2,actual:(Int,Int)
如何将Tuple2传递给函数?Tuple2和(Int,Int)有什么区别
scala tuples
apache-spark ×1
caching ×1
scala ×1
tuples ×1