Gau*_*hah 6 scala apache-spark spark-shell
我正在尝试从 Spark-Shell 运行我的 scala 文件。该文件调用一些已经加载到spark-context中的其他jar文件
问题是如果出现故障,它只会打印堆栈跟踪的一部分。有什么方法可以启用整个堆栈跟踪吗?
myclassn: ClassifyFields : queryDb -> Problems extracting from DB
at myclass.queryDb(ClassifyFields.java:231)
at myclass.getColumnsWithKeys(ClassifyFields.java:258)
... 78 elided
Run Code Online (Sandbox Code Playgroud)
将以下值设置为零。
vals.isettings.maxPrintString=0
就像下面的例子
scala> :power
Power mode enabled. :phase is at typer.
import scala.tools.nsc._, intp.global._, definitions._
Try :help or completions for vals._ and power._
scala> vals.isettings.maxPrintString
res0: Int = 800
scala> vals.isettings.maxPrintString=0
vals.isettings.maxPrintString: Int = 0
scala> vals.isettings.maxPrintString
res1: Int = 0
Run Code Online (Sandbox Code Playgroud)
或发生异常后使用以下命令
lastException.printStackTrace
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
1161 次 |
| 最近记录: |