小编Mar*_*ier的帖子

IntelliJ中的SBT xalan#serializer错误

我正在使用Intellij在Scala中构建一个Play 2 Web应用程序.但是,我一直在Intellij中收到此错误.

SBT project import
     [warn]     [FAILED     ] xalan#serializer;2.7.1!serializer.jar(src):  (0ms)
     [warn] ==== typesafe-ivy-releases: tried
     [warn]   http://repo.typesafe.com/typesafe/ivy-releases/xalan/serializer/2.7.1/srcs/serializer-sources.jar
     [warn] ==== sbt-plugin-releases: tried
     [warn]   http://repo.scala-sbt.org/scalasbt/sbt-plugin-releases/xalan/serializer/2.7.1/srcs/serializer-sources.jar
     [warn] ==== local: tried
     [warn]   C:\Users\ *** \.ivy2\local\xalan\serializer\2.7.1\srcs\serializer-sources.jar
     [warn] ==== public: tried
     [warn]   http://repo1.maven.org/maven2/xalan/serializer/2.7.1/serializer-2.7.1-sources.jar
     [warn] ==== Typesafe repository: tried
     [warn]   http://repo.typesafe.com/typesafe/releases/xalan/serializer/2.7.1/serializer-2.7.1-sources.jar
     [warn]     ::::::::::::::::::::::::::::::::::::::::::::::
     [warn]     ::              FAILED DOWNLOADS            ::
     [warn]     :: ^ see resolution messages for details  ^ ::
     [warn]     ::::::::::::::::::::::::::::::::::::::::::::::
     [warn]     :: xalan#serializer;2.7.1!serializer.jar(src)
     [warn]     ::::::::::::::::::::::::::::::::::::::::::::::
     [warn]     [FAILED     ] xalan#serializer;2.7.1!serializer.jar(doc):  (0ms)
     [warn] ==== local: tried
     [warn]   C:\Users\ *** …
Run Code Online (Sandbox Code Playgroud)

intellij-idea sbt playframework-2.0

12
推荐指数
1
解决办法
1444
查看次数

玩JSON组合器

在Play 2.1中,我们使用类似下面的内容通过读取从JSON中获取生物对象.

implicit val creatureReads = (
  (__ \ "name").read[String] and
  (__ \ "isDead").read[Boolean] and
  (__ \ "weight").read[Float]
)(Creature.apply _)
Run Code Online (Sandbox Code Playgroud)

在Scala中相对较新,我试图了解是否有其他方法来构建Creature对象而不使用Apply方法?是否可以使用匿名函数来创建对象而不是依赖于apply?

我有一些用例,其中我的对象中的大多数字段都可能丢失,但我仍然想要构建我的对象.为对象定义一个READ并为每个字段使用readnullable是否更好?

我也可能有复杂的条件,所以只是定义自定义函数来构建它而不是试图捕获一个Reader中的所有案例会更清晰吗?

scala playframework playframework-2.0 playframework-2.1

9
推荐指数
1
解决办法
2120
查看次数

在IntelliJ中格式化scala模板文件

我正在使用Intellij创建一个Play2项目.我已经安装了Play2支持和Scala插件.但是当我尝试使用IDE格式化index.scala.html时,模板中的所有JavaScript代码都搞砸了(缩进).我将文件重命名为index.html并尝试格式化.然后它被正确格式化.如何解决这个问题?

scala intellij-idea playframework-2.0

7
推荐指数
0
解决办法
963
查看次数

Play中没有导入的包!框架模板

我有一个Play 2.0模板,其中包含以下第一行:

@(item: Option[Item] = None,
    violations: java.util.Set[ConstraintViolation[Item]] = new util.HashSet[ConstraintViolation[Item]]())

@import java.util
@import javax.validation.ConstraintViolation
Run Code Online (Sandbox Code Playgroud)

ConstraintViolation无法找到,我收到错误:

not found: type ConstraintViolation 
Run Code Online (Sandbox Code Playgroud)

bean验证API本身在应用程序中可用,因为我可以在控制器中使用它.如何在我的模板中导入它?

templates scala bean-validation playframework-2.0

5
推荐指数
1
解决办法
1393
查看次数

如何在Web上运行Apache Spark作业后获得输出

我是学习Hadoop和Apache Spark的学生.我想知道如何从Web上的Apache Spark Job获取输出.

以下是在Web上运行Apache Spark Job的简单php代码,因为我只想测试它.

<?php
echo shell_exec("spark-submit --class stu.ac.TestProject.App --master spark://localhost:7077 /TestProject-0.0.1-SNAPSHOT.jar");
?>
Run Code Online (Sandbox Code Playgroud)

以下是Apache Spark作业的示例Java代码.

public class App 
{
public static void main( String[] args )
{
    SparkConf sparkConf = new SparkConf().setAppName("JavaSparkPi");
    sparkConf.setMaster("spark://localhost:7077");
    JavaSparkContext jsc = new JavaSparkContext(sparkConf);

    int slices = (args.length == 1) ? Integer.parseInt(args[0]) : 2;
    int n = 100000 * slices;
    List<Integer> l = new ArrayList<Integer>(n);
    for (int i = 0; i < n; i++) {
        l.add(i);
    }
    JavaRDD<Integer> dataSet = jsc.parallelize(l, slices);

    JavaRDD<Integer> …
Run Code Online (Sandbox Code Playgroud)

java hadoop web-services apache-spark

4
推荐指数
2
解决办法
1万
查看次数

为什么"val a = -1"在scala中不起作用?

我发现val a = -1在scala REPL中工作得很好,但是如果我跳过=类似的空间val a=-1,表达式不会返回结果.

有没有人有这个想法?为什么=这里需要空间呢?

scala

2
推荐指数
1
解决办法
115
查看次数

将StringBuilder转换为RDD [String]

我试图将StringBuilder对象转换为RDD [String],我遇到了一些麻烦.我能够将StringBuilder对象转换为RDD [Char],但我需要它是RDD [String].当它以RDD [Char]的形式写入文件系统时,它每行放置1个字符.这是不可接受的.我使用Spark 1.2和Java 7.我的代码如下

val sc = new SparkContext
val sb:StringBuilder = new StringBuilder();
    sb.append("#").append("\n");
    sb.append("# Version 1").append("\n");
val headerFile = sc.parallelize(sb, 1)
headerFile.saveAsTextFile(path)
sc.stop
Run Code Online (Sandbox Code Playgroud)

关于如何将sb转换为RDD [String]的任何想法?

scala apache-spark

1
推荐指数
1
解决办法
2977
查看次数