小编Sri*_*vas的帖子

为什么spark-submit因"IllegalArgumentException:缺少应用程序资源而失败"而失败?

当我创建我的Spark应用程序的jar并尝试使用它运行时spark-submit,我收到以下错误.

这是我以前运行的命令.

spark-submit --executor-memory 1g --jars s3://test-data-lab-users/spachari/test/test_2.10-1.0.jar
Run Code Online (Sandbox Code Playgroud)

这是我得到的错误.这是否意味着我没有在我的spark-submit中传递正确的参数?

Exception in thread "main" java.lang.IllegalArgumentException: Missing application resource.
    at org.apache.spark.launcher.CommandBuilderUtils.checkArgument(CommandBuilderUtils.java:241)
    at org.apache.spark.launcher.SparkSubmitCommandBuilder.buildSparkSubmitArgs(SparkSubmitCommandBuilder.java:160)
    at org.apache.spark.launcher.SparkSubmitCommandBuilder.buildSparkSubmitCommand(SparkSubmitCommandBuilder.java:276)
    at org.apache.spark.launcher.SparkSubmitCommandBuilder.buildCommand(SparkSubmitCommandBuilder.java:151)
    at org.apache.spark.launcher.Main.main(Main.java:86)
Command exiting with ret '1'
Run Code Online (Sandbox Code Playgroud)

apache-spark

12
推荐指数
1
解决办法
1万
查看次数

scala中的foreach循环

在scala foreach循环中,如果我有列表

val a = List("a","b","c","d")
Run Code Online (Sandbox Code Playgroud)

我可以打印它们没有像这样的模式匹配

a.foreach(c => println(c))
Run Code Online (Sandbox Code Playgroud)

但是,如果我有这样的元组

val v = Vector((1,9), (2,8), (3,7), (4,6), (5,5))
Run Code Online (Sandbox Code Playgroud)

我为什么要使用

v.foreach{ case(i,j) => println(i, j) }
Run Code Online (Sandbox Code Playgroud)
  1. 模式匹配案例
  2. {括号

请解释执行两个foreach循环时会发生什么.

foreach scala

9
推荐指数
2
解决办法
1万
查看次数

sparkSQL的SBT依赖

我开始学习spark sql我在sbt中使用以下依赖项.我收到了错误

name := "sparkLearning"

version := "1.0"

scalaVersion := "2.11.8"

val sparkVersion = "1.6.1"
val sqlVersion = "1.3.1"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % sparkVersion,
  "org.apache.spark" % "spark-sql" % sqlVersion
)
Run Code Online (Sandbox Code Playgroud)

我收到了一个错误.

Error:Error while importing SBT project:<br/>...<br/><pre>[info] Resolving com.thoughtworks.paranamer#paranamer;2.6 ...
[info] Resolving org.scala-sbt#completion;0.13.15 ...
[info] Resolving org.scala-sbt#control;0.13.15 ...
[info] Resolving org.scala-sbt#sbt;0.13.15 ...
[info] Resolving org.scala-sbt#run;0.13.15 ...
[info] Resolving org.scala-sbt.ivy#ivy;2.3.0-sbt-48dd0744422128446aee9ac31aa356ee203cc9f4 ...
[info] Resolving org.scala-sbt#test-interface;1.0 ...
[info] Resolving com.jcraft#jsch;0.1.50 ...
[info] Resolving org.scala-lang#scala-compiler;2.10.6 ...
[info] Resolving jline#jline;2.14.3 ...
[info] Resolving …
Run Code Online (Sandbox Code Playgroud)

scala sbt

7
推荐指数
1
解决办法
5076
查看次数

从我们声明内部类的方法本地内部类中访问局部变量

我正在学习Java,我正在学习的教程说Java不允许从方法m2()直接访问变量k(下面例子中的局部变量m1())因为它们是用相同的方法创建的m1()并且我将在编译期间得到一个错误(除非k被声明为final).他们说的原因是一个局部变量(k)的方法过程中创建被称为和销毁之后所述方法执行完成,但是当该对象被实例化,并且可以仍然方法执行之后不会破坏在创建对象(○).所以这本手册说,如果你调用方法M2()或对象方法被执行后的M2 O(我不知道它是如何可能的)变量k将被销毁,将不可用.所以教程声称Java不允许这样的声明.(如果我的理解错误,请随时纠正我)

但是当我编译这个程序工作正常.我错过了什么吗?从我的解释角度来看,我理解这有点复杂,如果我的问题很明确,那么请随时问我是否有些不清楚.

在此先感谢您的帮助.

class innerclass_ex8
{
    int x = 10;
    static int y = 20;

    public void m1()
    {
            int k = 30;
            final int z = 50;
            class inner {
                public void m2() 
                {
                    System.out.println(x);
                    System.out.println(y);
                    System.out.println(k);
                    System.out.println(z);
                }
            }
            inner o = new inner();
            o.m2();

    }
    public static void main(String[] args)
    {
        innerclass_ex8 g = new innerclass_ex8();
        g.m1();
    }
}
Run Code Online (Sandbox Code Playgroud)

java inner-classes

6
推荐指数
1
解决办法
1765
查看次数

在sql server中将varchar转换为十六进制

我想要一个函数在 sql server 中将 varchar 转换为十六进制。请帮我。

PS 我将在 Hive 中使用 unhex() 来尝试取回原始值。这是因为我的数据包含特殊字符和反斜杠,而 HIVE 外部表无法识别它

sql-server hive

5
推荐指数
1
解决办法
6012
查看次数

我如何知道scala函数的类型

我想知道repl中scala函数的类型.在Haskell中它是:t,任何人都可以告诉它在scala中的等价物吗?

scala read-eval-print-loop

5
推荐指数
1
解决办法
67
查看次数

在SQL Server中搜索带双引号的字符串

我想找出在特定字段中具有双引号字符的所有行。

我正在尝试类似charindex(columnname,'""')where子句中的操作,但是它似乎不起作用。

任何帮助都感激不尽。

sql sql-server

3
推荐指数
1
解决办法
8228
查看次数

蜂巢中的正则表达式

我正在Hive中学习简单的正则表达式.我正在按照教程和简单的hql语句获取错误?

select REGEXP_EXTRACT( 'Hello, my name is Ben. Please visit' , 'Ben' )
Run Code Online (Sandbox Code Playgroud)

这是我收到的错误消息:

Wrong arguments ''Ben'': org.apache.hadoop.hive.ql.metadata.HiveException: Unable to execute method public java.lang.String org.apache.hadoop.hive.ql.udf.UDFRegExpExtract.evaluate(java.lang.String,java.lang.String) on object org.apache.hadoop.hive.ql.udf.UDFRegExpExtract@ec0c06f of class org.apache.hadoop.hive.ql.udf.UDFRegExpExtract with arguments {Hello, my name is Ben. Please visit:java.lang.String, Ben:java.lang.String} of size 2

它适用于其他语言,但我想在Hive中学习它.任何帮助,将不胜感激.

regex hive hiveql

3
推荐指数
1
解决办法
2万
查看次数

无法访问由 createOrReplaceGlobalTempView 创建的临时表

我的代码在 emr 中不起作用

finalDF.createOrReplaceGlobalTempView("temp_visits")
spark.sql(s"insert overwrite table test PARTITION (date) SELECT * from temp_visits")
Run Code Online (Sandbox Code Playgroud)

我收到以下异常

Exception in thread "main" org.apache.spark.sql.AnalysisException: Table or view not found: temp_visits; line 1 pos 100
    at org.apache.spark.sql.catalyst.analysis.package$AnalysisErrorAt.failAnalysis(package.scala:42)
    at org.apache.spark.sql.catalyst.analysis.Analyzer$ResolveRelations$.org$apache$spark$sql$catalyst$analysis$Analyzer$ResolveRelations$$lookupTableFromCatalog(Analyzer.scala:663)
Run Code Online (Sandbox Code Playgroud)

是否需要添加任何设置才能识别此临时表?

apache-spark apache-spark-sql

3
推荐指数
1
解决办法
1148
查看次数

为什么类型会导致“带有动物可序列化的产品”而不是动物?

假设我有

val flag = true
Run Code Online (Sandbox Code Playgroud)

为什么会导致类型Product with Serializable with Animal而不只是类型Animal

class Animal(name : String)
case class Herbivore(name : String) extends Animal(name)
case class Carnivore(name : String) extends Animal(name)

val cow = new Herbivore("cow")
val tiger = new Carnivore("tiger")

if (flag) cow else tiger // Why is type Product with Serializable with Animal? 
Run Code Online (Sandbox Code Playgroud)

types scala

3
推荐指数
1
解决办法
95
查看次数