是否可以将 StringType 列转换为 spark 数据框中的 ArrayType 列?
df.printSchema() 给这个
df.printSchema()
架构 -> a: string(nullable= true)
现在我想将其转换为
a:数组(可为空=真)
scala apache-spark
apache-spark ×1
scala ×1