小编moh*_*sen的帖子

在java中评估后缀表达式

我有一个问题,我不能在这个函数中找到错误,它有时可以很好地处理一些输入但有时没有检查这个输入"6 2/3 - 4 2*+"可以任何一个帮助.

public static double Evaluating_postfix_expressions(String postfix) throws Exception{
    StringTokenizer st = new StringTokenizer(postfix);
    int numOF_tokens = st.countTokens();
    for (int i = 1; i <= numOF_tokens; i++) {
        Object term = st.nextToken();
        try { // if it is an operand there is no problem
            float x =  Float.parseFloat((String)term);
            stack.push(x);
        } catch (Exception e) { // it is an operator
            float v1 = (float) stack.pop();
            float v2 = (float) stack.pop();
            switch ((String) term) {
            case "+":
                stack.push(v2 + …
Run Code Online (Sandbox Code Playgroud)

java

2
推荐指数
1
解决办法
2434
查看次数

在JavaScript中切换复选框的ID不起作用?

function handleCheckBoxEvent(cb){               
        var index = 0;
        switch (cb.id){
            case "cb0":
                index = 0;
                alert(cb.id);
                break;
            case: "cb1":
                index = 1;
                alert(cb.id);
                break;
        }
}
Run Code Online (Sandbox Code Playgroud)

当我选中如下框时,我称之为:

<input id="cb0" type="checkbox" onclick="handleCheckBoxEvent(this);">Frist</label>
Run Code Online (Sandbox Code Playgroud)

我无法弄清楚为什么上面的开关不起作用?

任何帮助将非常感谢,提前致谢.

javascript checkbox switch-statement

2
推荐指数
1
解决办法
1008
查看次数

Databricks SparkException超过spark.driver.maxResultSize

我正在 Azure Databricks DBR 7.3 LTS、spark 3.0.1、scala 2.12 在 Standard_E4as_v4(32.0 GB 内存、4 个内核、1 DBU)VM 的(20 到 35)个工作人员集群上运行以下代码,并且类型为 Standard_DS5_v2 驱动程序( 56.0 GB 内存、16 核、3 DBU)

目标是处理约 5.5 TB 的数据

我面临以下异常:“org.apache.spark.SparkException:由于阶段失败而中止作业:1165个任务的序列化结果的总大小(4.0 GiB)大于spark.driver.maxResultSize 4.0 GiB”处理1163后57071,正在处理 148.4 GiB 的数据,用时 6.1 分钟

我不收集或传输数据到驱动程序,分区数据是否会导致此问题?如果是这种情况:

  • 有没有更好的分区方式?
  • 如何解决这个问题?

代码:

import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.functions._
import org.apache.spark.sql.types._
import spark.implicits._

val w = Window.partitionBy("productId").orderBy(col("@ingestionTimestamp").cast(TimestampType).desc)

val jsonDF = spark.read.json("/mnt/myfile")

val res = jsonDF
      .withColumn("row", row_number.over(w))
      .where($"row" === 1)
      .drop("row")

res.write.json("/mnt/myfile/spark_output")
Run Code Online (Sandbox Code Playgroud)

然后我只尝试再次加载和写入数据而不进行转换,并遇到同样的问题,代码:

import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.functions._
import org.apache.spark.sql.types._
import …
Run Code Online (Sandbox Code Playgroud)

scala apache-spark apache-spark-sql databricks azure-databricks

0
推荐指数
1
解决办法
4292
查看次数