如何使用 Spark-Scala 从网络下载 CSV 文件?

use*_*943 5 csv scala apache-spark

世界,

如何使用 Spark-Scala 从网络下载 CSV 文件并将文件加载到 spark-csv DataFrame 中?

目前我依靠 shell 命令中的 curl 来获取我的 CSV 文件。

这是我想要增强的语法:

/* fb_csv.scala
This script should load FB prices from Yahoo.

Demo:
spark-shell -i fb_csv.scala
*/

// I should get prices:
import sys.process._
"/usr/bin/curl -o /tmp/fb.csv http://ichart.finance.yahoo.com/table.csv?s=FB"!

import org.apache.spark.sql.SQLContext

val sqlContext = new SQLContext(sc)

val fb_df = sqlContext.read.format("com.databricks.spark.csv").option("header","true").option("inferSchema","true").load("/tmp/fb.csv")

fb_df.head(9)
Run Code Online (Sandbox Code Playgroud)

我想增强上面的脚本,使其成为纯 Scala,内部没有 shell 语法。

Sam*_*mar 7

val content = scala.io.Source.fromURL("http://ichart.finance.yahoo.com/table.csv?s=FB").mkString

val list = content.split("\n").filter(_ != "")

val rdd = sc.parallelize(list)

val df = rdd.toDF
Run Code Online (Sandbox Code Playgroud)