这是我第一次在尝试合并两个 Spark Dataframe 时看到此错误。我试图从现有数据中提取欺诈记录,然后采取差异来获取非欺诈案例并将两者合并,但出现以下错误:
这是 DF 的快照:
如果需要,很乐意提供有关 DF 操作的更多信息。PySpark:2.4.5 Python:3.6.9
有一个问题,为什么他们要求使用不可变对象作为字典中的键.
当我最近使用字典(显然不是为了哈希表的目的)将Xml节点对象作为键放置时,问题实际上在我脑海中浮现.然后我在使用期间多次更新节点.
那么'使用不可变密钥'究竟意味着什么呢?