我想我遇到了 jar 不兼容的问题。我使用以下 jar 文件来构建 Spark 集群:
from pyspark.sql import SparkSession, SQLContext
from pyspark.sql.types import *
from pyspark.sql.functions import *
import sys
spark = (SparkSession.builder
.appName("AuthorsAges")
.appName('SparkCassandraApp')
.getOrCreate())
spark._jsc.hadoopConfiguration().set("fs.s3a.access.key", "access-key")
spark._jsc.hadoopConfiguration().set("fs.s3a.secret.key", "secret-key")
spark._jsc.hadoopConfiguration().set("fs.s3a.impl","org.apache.hadoop.fs.s3a.S3AFileSystem")
spark._jsc.hadoopConfiguration().set("com.amazonaws.services.s3.enableV4", "true")
spark._jsc.hadoopConfiguration().set("fs.s3a.aws.credentials.provider","org.apache.hadoop.fs.s3a.BasicAWSCredentialsProvider")
spark._jsc.hadoopConfiguration().set("fs.s3a.endpoint", "")
input_file='s3a://spark-test-data/Fire_Department_Calls_for_Service.csv'
file_schema = StructType([StructField("Call_Number",StringType(),True),
StructField("Unit_ID",StringType(),True),
StructField("Incident_Number",StringType(),True),
...
...
# Read file into a Spark DataFrame
input_df = (spark.read.format("csv") \
.option("header", "true") \
.schema(file_schema) \
.load(input_file))
Run Code Online (Sandbox Code Playgroud)
当代码开始执行spark.read.format时失败。似乎找不到该类。java.lang.NoClassDefFoundError:com/amazonaws/AmazonServiceException。
我的spark-defaults.conf配置如下:
spark.jars.packages com.amazonaws:aws-java-sdk:1.11.885,org.apache.hadoop:hadoop-aws:2.7.4
Run Code Online (Sandbox Code Playgroud)
如果有人能帮助我,我将不胜感激。有任何想法吗?
Traceback (most recent call last):
File "<stdin>", line 5, …Run Code Online (Sandbox Code Playgroud) 我在 EKS 上运行 Jupyterhub,并希望利用 EKS IRSA 功能在 K8s 上运行 Spark 工作负载。我之前有使用 Kube2IAM 的经验,但现在我计划转向 IRSA。
此错误不是由于 IRSA 造成的,因为服务帐户已完美附加到 Driver 和 Executor Pod,并且我可以通过 CLI 和 SDK 从两者访问 S3。此问题与在 Spark 3.0/ Hadoop 3.2 上使用 Spark 访问 S3 有关
Py4JJavaError:调用 None.org.apache.spark.api.java.JavaSparkContext 时发生错误。:java.lang.NoClassDefFoundError:com/amazonaws/services/s3/model/MultiObjectDeleteException
我正在使用以下版本 -
我也用不同的版本进行了测试。
如果有人遇到过这个问题,请帮忙提供解决方案。
PS:这也不是 IAM 策略错误,因为 IAM 策略完全没问题。