小编Xia*_*hen的帖子

在Spark中找不到适合jdbc的驱动程序

我在用

df.write.mode("append").jdbc("jdbc:mysql://ip:port/database", "table_name", properties)
Run Code Online (Sandbox Code Playgroud)

插入MySQL中的表.

另外,我Class.forName("com.mysql.jdbc.Driver")在我的代码中添加了.

当我提交我的Spark应用程序时:

spark-submit --class MY_MAIN_CLASS
  --master yarn-client
  --jars /path/to/mysql-connector-java-5.0.8-bin.jar
  --driver-class-path /path/to/mysql-connector-java-5.0.8-bin.jar
  MY_APPLICATION.jar
Run Code Online (Sandbox Code Playgroud)

这种纱线客户端模式适合我.

但是当我使用纱线群集模式时:

spark-submit --class MY_MAIN_CLASS
  --master yarn-cluster
  --jars /path/to/mysql-connector-java-5.0.8-bin.jar
  --driver-class-path /path/to/mysql-connector-java-5.0.8-bin.jar
  MY_APPLICATION.jar
Run Code Online (Sandbox Code Playgroud)

它不起作用.我也试过设置"--conf":

spark-submit --class MY_MAIN_CLASS
  --master yarn-cluster
  --jars /path/to/mysql-connector-java-5.0.8-bin.jar
  --driver-class-path /path/to/mysql-connector-java-5.0.8-bin.jar
  --conf spark.executor.extraClassPath=/path/to/mysql-connector-java-5.0.8-bin.jar
  MY_APPLICATION.jar
Run Code Online (Sandbox Code Playgroud)

但仍然得到"找不到适合jdbc的驱动程序"错误.

mysql jdbc apache-spark apache-spark-sql

7
推荐指数
2
解决办法
8593
查看次数

标签 统计

apache-spark ×1

apache-spark-sql ×1

jdbc ×1

mysql ×1