Kai*_*Kai 5 java apache-spark apache-spark-sql
这里描述的解决方案(通过zero323)非常接近我想要的两个曲折:
我正在使用Spark 1.6并尝试使用
org.apache.spark.sql.functions.collect_list(Column col) 如该问题的解决方案中所述,但得到以下错误
线程"main"中的异常org.apache.spark.sql.AnalysisException:undefined function collect_list; at org.apache.spark.sql.catalyst.analysis.SimpleFunctionRegistry $$ anonfun $ 2.apply(FunctionRegistry.scala:65)at org.apache.spark.sql.catalyst.analysis.SimpleFunctionRegistry $$ anonfun $ 2.apply(FunctionRegistry. scala:65)在scala.Option.getOrElse(Option.scala:121)
你看到的错误建议你使用普通SQLContext而不是HiveContext.collect_list是一个Hive UDF,因此需要HiveContext.它也不支持复杂列,因此唯一的选择是explode:
import org.apache.spark.api.java.*;
import org.apache.spark.SparkConf;
import org.apache.spark.sql.SQLContext;
import org.apache.spark.sql.hive.HiveContext;
import java.util.*;
import org.apache.spark.sql.DataFrame;
import static org.apache.spark.sql.functions.*;
public class App {
public static void main(String[] args) {
JavaSparkContext sc = new JavaSparkContext(new SparkConf());
SQLContext sqlContext = new HiveContext(sc);
List<String> data = Arrays.asList(
"{\"id\": 1, \"vs\": [\"a\", \"b\"]}",
"{\"id\": 1, \"vs\": [\"c\", \"d\"]}",
"{\"id\": 2, \"vs\": [\"e\", \"f\"]}",
"{\"id\": 2, \"vs\": [\"g\", \"h\"]}"
);
DataFrame df = sqlContext.read().json(sc.parallelize(data));
df.withColumn("vs", explode(col("vs")))
.groupBy(col("id"))
.agg(collect_list(col("vs")))
.show();
}
}
Run Code Online (Sandbox Code Playgroud)
但它不太可能表现良好.
| 归档时间: |
|
| 查看次数: |
9910 次 |
| 最近记录: |