相关疑难解决方法(0)

在Spark java中将JavaRDD转换为DataFrame

我正在尝试处理LogFile.首先,我按照我的要求读取日志文件并拆分这些文件,并将每个列保存到单独的JavaRDD中.现在我需要将这些JavaRDD转换为DataFrames以供将来操作.这是我到目前为止所尝试的代码:

         SparkConf conf = new SparkConf().setAppName("AuctionBid").setMaster("local");
         JavaSparkContext sc = new JavaSparkContext(conf);
         JavaRDD<String> diskfile = sc.textFile("/Users/karuturi/Downloads/log.txt");
         JavaRDD<String> urlrdd=diskfile.flatMap(line -> Arrays.asList(line.split("\t")[0]));
         System.out.println(urlrdd.take(1));
         SQLContext sql = new SQLContext(sc);
Run Code Online (Sandbox Code Playgroud)

这就是我试图将JavaRDD转换为DataFrame的方式:

DataFrame fileDF = sqlContext.createDataFrame(urlRDD, Model.class);
Run Code Online (Sandbox Code Playgroud)

但上面的行不起作用.我对Model.class感到困惑.

任何人都可以建议我.

谢谢.

java hadoop apache-spark apache-spark-sql

9
推荐指数
2
解决办法
2万
查看次数

标签 统计

apache-spark ×1

apache-spark-sql ×1

hadoop ×1

java ×1