我有一个Cassandra表,为简单起见,看起来像:
key: text
jsonData: text
blobData: blob
Run Code Online (Sandbox Code Playgroud)
我可以使用spark和spark-cassandra-connector为此创建一个基本数据框:
val df = sqlContext.read
.format("org.apache.spark.sql.cassandra")
.options(Map("table" -> "mytable", "keyspace" -> "ks1"))
.load()
Run Code Online (Sandbox Code Playgroud)
我正在努力将JSON数据扩展到其底层结构中.我最终希望能够根据json字符串中的属性进行过滤并返回blob数据.像jsonData.foo ="bar"之类的东西并返回blobData.这目前可能吗?
scala dataframe apache-spark apache-spark-sql spark-cassandra-connector
我有这个JSON文件
{
"a": 1,
"b": 2
}
Run Code Online (Sandbox Code Playgroud)
这是用Python json.dump方法获得的.现在,我想使用pyspark将此文件读入Spark中的DataFrame.以下文档,我正在这样做
sc = SparkContext()
sqlc = SQLContext(sc)
df = sqlc.read.json('my_file.json')
print df.show()
print语句虽然吐出了这个:
+---------------+
|_corrupt_record|
+---------------+
| {|
| "a": 1, |
| "b": 2|
| }|
+---------------+
Run Code Online (Sandbox Code Playgroud)
任何人都知道发生了什么以及为什么它没有正确解释文件?