没有名为“delta.tables”的模块

RLT*_*RLT 7 python apache-spark pyspark delta-lake

我收到以下代码的错误,请帮忙:

   from delta.tables import *
   ModuleNotFoundError: No module named 'delta.tables'
   INFO SparkContext: Invoking stop() from shutdown hook
Run Code Online (Sandbox Code Playgroud)

这是代码:'''

   from pyspark.sql import *

   if __name__ == "__main__":
     spark = SparkSession \
        .builder \
        .appName("DeltaLake") \
        .config("spark.jars", "delta-core_2.12-0.7.0") \
        .config("spark.sql.extensions", "io.delta.sql.DeltaSparkSessionExtension") \
        .config("spark.sql.catalog.spark_catalog", "org.apache.spark.sql.delta.catalog.DeltaCatalog") \
        .getOrCreate()

    from delta.tables import *

    data = spark.range(0, 5)

   data.printSchema()
Run Code Online (Sandbox Code Playgroud)

'''

在线搜索建议将 scala 版本验证为 delta core jar 版本。这是 scala 和 Jar 版本

“delta-core_2.12-0.7.0”

“使用 Scala 版本 2.12.10,Java HotSpot(TM) 64 位服务器 VM,1.8.0_221”

小智 11

或者你也可以

pip install delta-spark
Run Code Online (Sandbox Code Playgroud)

Delta-Spark 点页面


Or *_*r b 5

根据 delta 包文档,有一个名为tables. 您应该克隆存储库并将delta文件夹复制python/delta到您的站点包路径(即..\python37\Lib\site-packages)。然后重新启动 python 并且您的代码运行时不会出现错误。

我在用Python3.5.3pyspark==3.0.1