无法在Spark应用程序中创建新的本机线程

Luc*_*kee 1 apache-spark

我正在运行一个Spark应用程序,但总是遇到内存不足的异常。

Exception in thread "main" java.lang.OutOfMemoryError: unable to create new native thread
Run Code Online (Sandbox Code Playgroud)

我在Linux上的节点集群中的local [5]下运行程序,但是它仍然给我这个错误。

小智 5

似乎ulimit在您的计算机上进行了配置方面的问题。运行ulimit -a命令,您将看到以下结果。

core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 63604
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 10240
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 63604
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited
Run Code Online (Sandbox Code Playgroud)

检查open filesmax user processes配置的值。应该很高。

您可以使用以下命令配置它们:

ulimit -n 10240
ulimit -u 63604
Run Code Online (Sandbox Code Playgroud)

完成ulimits的配置后。您可以启动应用程序以查看效果。