好吧,我正在使用PySpark并且我有一个Spark数据帧,我使用它将数据插入到mysql表中.
url = "jdbc:mysql://hostname/myDB?user=xyz&password=pwd"
df.write.jdbc(url=url, table="myTable", mode="append")
我想通过列值和特定数字的总和更新列值(不在主键中).
我尝试过不同的模式(追加,覆盖)DataFrameWriter.jdbc()函数.
我的问题是我们如何ON DUPLICATE KEY UPDATE在mysql中更新列值,同时将pyspark数据帧数据插入表中.
apache-spark apache-spark-sql pyspark spark-dataframe pyspark-sql
在 中执行此操作的基本方法models.py,例如:
class Foo(models.Model):
title = models.CharField(max_length=200)
...
def custom_tag(self):
return ('custom: %s' % self.title)
custom_tag.allow_tags = True
custom_tag.short_description = _("Custom Tag")
Run Code Online (Sandbox Code Playgroud)
或者,如果在admin.py;
class FooAdmin(admin.ModelAdmin):
list_display = ['title', 'custom_tag', ...]
...
def custom_tag(self, instance):
return ('custom: %s' % instance.title)
custom_tag.allow_tags = True
custom_tag.short_description = _("Custom Tag")
admin.site.register(Foo, FooAdmin)
Run Code Online (Sandbox Code Playgroud)
我的问题是,如何做allow_tags和short_description工作?我在哪里可以找到相关文件?