我想使用以下命令检查schemaname.tablename
Hive 中是否存在表pysparkSQL
.
Scala 中有一个选项。spark.catalog.tableExists("schemaname.tablename")
但是,相同的功能无法通过pySpark
.
寻找一种快速而干净的方法来检查 Hive 表是否存在使用 PySpark
我需要帮助来使用 PySpark 查找 Hive 表的唯一分区列名称。该表可能有多个分区列,并且最好输出应返回 Hive 表的分区列列表。
如果结果还包括分区列的数据类型,那就太好了。
任何建议都会有帮助。