在Spark中将IP地址设置为spark.driver.host而不是主机名?

Daw*_*ura 2 linux networking apache-spark

我在声明 Spark.driver.host 设置时遇到问题。假设我有一个带有 HOSTNAME 和绑定地址的主机192.168.1.1(其 linux、windows 根本没有这个问题)。

如果我设置一个属性,spark.driver.hostname = 192.168.1.1工作人员将响应 HOSTNAME,这非常糟糕,因为他们没有带有此主机名的 DNS。

如此故障排除页面所述:

如果 SPARK_LOCAL_IP 设置为 IP 地址,它将解析为主机名。

这里有一个问题:如何将此 IP 地址设置为主机名?

小智 6

您可以在您的spark环境中设置SPARK_LOCAL_HOSTNAME=ip地址来解决问题。