Ric*_*hie 12 apache-spark apache-spark-sql pyspark spark-dataframe pyspark-sql
好吧,我正在使用PySpark并且我有一个Spark数据帧,我使用它将数据插入到mysql表中.
url = "jdbc:mysql://hostname/myDB?user=xyz&password=pwd"
df.write.jdbc(url=url, table="myTable", mode="append")
我想通过列值和特定数字的总和更新列值(不在主键中).
我尝试过不同的模式(追加,覆盖)DataFrameWriter.jdbc()函数.
我的问题是我们如何ON DUPLICATE KEY UPDATE在mysql中更新列值,同时将pyspark数据帧数据插入表中.
| 归档时间: |
|
| 查看次数: |
1412 次 |
| 最近记录: |