dat*_*chu 11 hadoop amazon-s3 apache-spark spark-streaming pyspark
我正在尝试从本地计算机将数据写入 S3 存储桶:
spark = SparkSession.builder \
.appName('application') \
.config("spark.hadoop.fs.s3a.access.key", configuration.AWS_ACCESS_KEY_ID) \
.config("spark.hadoop.fs.s3a.secret.key", configuration.AWS_ACCESS_SECRET_KEY) \
.config("spark.hadoop.fs.s3a.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem") \
.getOrCreate()
lines = spark.readStream \
.format('kafka') \
.option('kafka.bootstrap.servers', kafka_server) \
.option('subscribe', kafka_topic) \
.option("startingOffsets", "earliest") \
.load()
streaming_query = lines.writeStream \
.format('parquet') \
.outputMode('append') \
.option('path', configuration.S3_PATH) \
.start()
streaming_query.awaitTermination()
Run Code Online (Sandbox Code Playgroud)
Hadoop版本:3.2.1,Spark版本3.2.1
我已将依赖项 jar 添加到 pyspark jar 中:
Spark-sql-kafka-0-10_2.12:3.2.1、aws-java-sdk-s3:1.11.375、hadoop-aws:3.2.1、
执行时出现以下错误:
py4j.protocol.Py4JJavaError: An error occurred while calling o68.start.
: java.io.IOException: From option fs.s3a.aws.credentials.provider
java.lang.ClassNotFoundException: Class
org.apache.hadoop.fs.s3a.auth.IAMInstanceCredentialsProvider not found
Run Code Online (Sandbox Code Playgroud)
dat*_*chu 14
就我而言,它最终通过添加以下语句起作用:
.config('spark.hadoop.fs.s3a.aws.credentials.provider', 'org.apache.hadoop.fs.s3a.SimpleAWSCredentialsProvider')
Run Code Online (Sandbox Code Playgroud)
另外,site-package/pyspark/jars 中的所有 hadoop jar 必须处于同一版本,hadoop-aws:3.2.2、hadoop-client-api-3.2.2、hadoop-client-runtime-3.2.2、hadoop -yam-服务器-web-proxy-3.2.2
对于 hadoop-aws 版本 3.2.2,需要 aws-java-sdk-s3:1.11.563 包。
我还用 guava-23.0.jar 替换了 guava-14.0.jar。
| 归档时间: |
|
| 查看次数: |
23890 次 |
| 最近记录: |