use*_*122 4 apache-spark apache-spark-sql
我正在使用以下方法将csv加载到数据帧:
sqlContext.read.format("com.databricks.spark.csv").option("header", "true").
option("delimiter", ",").load("file.csv")
Run Code Online (Sandbox Code Playgroud)
但我的输入文件包含第一行中的日期和第二行中的标题.例
20160612
id,name,age
1,abc,12
2,bcd,33
Run Code Online (Sandbox Code Playgroud)
在将csv转换为数据帧时,如何跳过第一行?
以下是我可以想到的几个选项,因为数据砖模块似乎没有提供跳过行选项:
选项一:在第一行前面添加一个"#"字符,该行将自动视为注释,并被data.bricks csv模块忽略;
选项二:创建自定义模式并指定将删除第一行的mode
选项,DROPMALFORMED
因为它包含的customCchema中的标记少于预期:
import org.apache.spark.sql.types.{StructType, StructField, StringType, IntegerType};
val customSchema = StructType(Array(StructField("id", IntegerType, true),
StructField("name", StringType, true),
StructField("age", IntegerType, true)))
val df = sqlContext.read.format("com.databricks.spark.csv").
option("header", "true").
option("mode", "DROPMALFORMED").
schema(customSchema).load("test.txt")
df.show
Run Code Online (Sandbox Code Playgroud)
16/06/12 21:24:05 WARN CsvRelation $:数字格式异常.丢弃格式错误的行:id,name,age
+---+----+---+
| id|name|age|
+---+----+---+
| 1| abc| 12|
| 2| bcd| 33|
+---+----+---+
Run Code Online (Sandbox Code Playgroud)
请注意此处的警告消息,其中显示丢弃的格式错误的行
选项三:编写自己的解析器以删除长度不为3的行:
val file = sc.textFile("pathToYourCsvFile")
val df = file.map(line => line.split(",")).
filter(lines => lines.length == 3 && lines(0)!= "id").
map(row => (row(0), row(1), row(2))).
toDF("id", "name", "age")
df.show
+---+----+---+
| id|name|age|
+---+----+---+
| 1| abc| 12|
| 2| bcd| 33|
+---+----+---+
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
6725 次 |
最近记录: |