Spark-shell - 如何避免抑制消除的堆栈跟踪(例外)

Gau*_*hah 6 scala apache-spark spark-shell

我正在尝试从 Spark-Shell 运行我的 scala 文件。该文件调用一些已经加载到spark-context中的其他jar文件

问题是如果出现故障,它只会打印堆栈跟踪的一部分。有什么方法可以启用整个堆栈跟踪吗?

myclassn: ClassifyFields : queryDb -> Problems extracting from DB
  at myclass.queryDb(ClassifyFields.java:231)
  at myclass.getColumnsWithKeys(ClassifyFields.java:258)
  ... 78 elided
Run Code Online (Sandbox Code Playgroud)

Ram*_*ram 5

将以下值设置为零。

vals.isettings.maxPrintString=0

就像下面的例子

scala> :power
Power mode enabled. :phase is at typer.
import scala.tools.nsc._, intp.global._, definitions._
Try :help or completions for vals._ and power._

scala> vals.isettings.maxPrintString
res0: Int = 800

scala> vals.isettings.maxPrintString=0
vals.isettings.maxPrintString: Int = 0

scala> vals.isettings.maxPrintString
res1: Int = 0
Run Code Online (Sandbox Code Playgroud)

或发生异常后使用以下命令

lastException.printStackTrace
Run Code Online (Sandbox Code Playgroud)