无法使用pyspark shell中的jdbc连接到postgres

Son*_*ank 7 postgresql jdbc apache-spark apache-spark-sql pyspark

我在本地窗口上使用独立群集,并尝试使用以下代码从我们的服务器加载数据 -

from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
df = sqlContext.load(source="jdbc", url="jdbc:postgresql://host/dbname", dbtable="schema.tablename")
Run Code Online (Sandbox Code Playgroud)

我已将SPARK_CLASSPATH设置为 -

os.environ['SPARK_CLASSPATH'] = "C:\Users\ACERNEW3\Desktop\Spark\spark-1.3.0-bin-hadoop2.4\postgresql-9.2-1002.jdbc3.jar"
Run Code Online (Sandbox Code Playgroud)

在执行sqlContext.load时,它会引发错误,提到"找不到适合jdbc:postgresql的驱动程序".我试过搜索网页,但无法找到解决方案.

avk*_*ost 5

可能会有所帮助。

在我的环境中 SPARK_CLASSPATH 包含 postgresql 连接器的路径

from pyspark import SparkContext, SparkConf
from pyspark.sql import DataFrameReader, SQLContext
import os

sparkClassPath = os.getenv('SPARK_CLASSPATH', '/path/to/connector/postgresql-42.1.4.jar')

# Populate configuration
conf = SparkConf()
conf.setAppName('application')
conf.set('spark.jars', 'file:%s' % sparkClassPath)
conf.set('spark.executor.extraClassPath', sparkClassPath)
conf.set('spark.driver.extraClassPath', sparkClassPath)
# Uncomment line below and modify ip address if you need to use cluster on different IP address
#conf.set('spark.master', 'spark://127.0.0.1:7077')

sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)

url = 'postgresql://127.0.0.1:5432/postgresql'
properties = {'user':'username', 'password':'password'}

df = DataFrameReader(sqlContext).jdbc(url='jdbc:%s' % url, table='tablename', properties=properties)

df.printSchema()
df.show()
Run Code Online (Sandbox Code Playgroud)

这段代码允许在您需要的地方使用 pyspark。例如,我在 Django 项目中使用过它。


8fo*_*rty 3

我对 mysql 也有同样的问题,并且永远无法让它与 SPARK_CLASSPATH 方法一起工作。不过我确实让它与额外的命令行参数一起工作,请参阅这个问题的答案

为了避免必须点击才能使其正常工作,您必须执行以下操作:

pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>
Run Code Online (Sandbox Code Playgroud)