使用ANSI编码读取pyspark中的CSV文件

Tig*_*pes 4 apache-spark-sql pyspark databricks

我正在尝试读取需要使用 ANSI 编码读取的 csv/文本文件。然而这不起作用。有任何想法吗?

\n\n
mainDF= spark.read.format("csv")\\\n                  .option("encoding","ANSI")\\\n                  .option("header","true")\\\n                  .option("maxRowsInMemory",1000)\\\n                  .option("inferSchema","false")\\\n                  .option("delimiter", "\xc2\xac")\\\n                  .load(path)\n
Run Code Online (Sandbox Code Playgroud)\n\n
\n

java.nio.charset.UnsupportedCharsetException:ANSI

\n
\n\n

该文件超过 5GB,因此需要 Spark。

\n\n

我也尝试过小写的 ANSI

\n

Tig*_*pes 7

ISO-8859-1 与 ANSI 相同,因此将其替换为上面的内容