在Apache Spark 2.0.0中,是否可以从外部数据库中获取查询(而不是抓取整个表)?

PBL*_*PBL 4 mysql jdbc apache-spark pyspark

使用pyspark:

from pyspark.sql import SparkSession

spark = SparkSession\
    .builder\
    .appName("spark play")\
    .getOrCreate()    

df = spark.read\
    .format("jdbc")\
    .option("url", "jdbc:mysql://localhost:port")\
    .option("dbtable", "schema.tablename")\
    .option("user", "username")\
    .option("password", "password")\
    .load()
Run Code Online (Sandbox Code Playgroud)

我宁愿抓取查询的结果集,而不是获取"schema.tablename".

zer*_*323 11

与1.x中相同,您可以将有效子查询作为dbtable参数传递,例如:

...
.option("dbtable", "(SELECT foo, bar FROM schema.tablename) AS tmp")
...
Run Code Online (Sandbox Code Playgroud)