小编Paw*_*nko的帖子

Scala + Play Framework + Slick - Json 作为模型字段

我需要将一个 Json 字段保存为我的 Play 框架模型的一列。我在 DAO 中的表解析器是

    class Table(tag: Tag) extends Table[Model](tag, "tablename") {
      implicit val configFormat = Json.format[Config]

      // Fields ...
      def config = column[Config]("config", O.SqlType("JSON"))
      // Fields ...

    }
Run Code Online (Sandbox Code Playgroud)

Config在 Play Model 文件夹中的 Model 中定义为一个案例类,并有他的伴生对象。此对象的字段是 Int、Double 或 String

    case class Config ( // fields )

    object Config {
      implicit val readConfig: Reads[Config] = new Reads[Config]
      for {
             // fields
      } yield Config(// fields)

      implicit val configFormat = Json.format[Config]

    }
Run Code Online (Sandbox Code Playgroud)

问题是由于这个错误我无法编译

    Error:(28, 37) could not find implicit value …
Run Code Online (Sandbox Code Playgroud)

json scala playframework slick play-json

7
推荐指数
1
解决办法
2666
查看次数

Apache Spark中的混乱与非混乱合并

在将RDD写入文件之前执行以下转换之间有什么区别?

  1. coalesce(1,shuffle = true)
  2. coalesce(1,shuffle = false)

代码示例:

val input = sc.textFile(inputFile)
val filtered = input.filter(doSomeFiltering)
val mapped = filtered.map(doSomeMapping)

mapped.coalesce(1, shuffle = true).saveAsTextFile(outputFile)
vs
mapped.coalesce(1, shuffle = false).saveAsTextFile(outputFile)
Run Code Online (Sandbox Code Playgroud)

它与collect()相比如何?我完全知道Spark保存方法会将它存储为HDFS风格的结构,但是我对collect()和shuffled/non-shuffled coalesce()的数据分区方面更感兴趣.

scala distributed-computing bigdata apache-spark

5
推荐指数
2
解决办法
5401
查看次数

如何在Slick 3.x中更新省略列的行?

我在Slick中有以下代码来更新对象用户:

val users = TableQuery[UserDB]
val action = users.filter(_.id === user.id).update(user)
val future = db.run(action)
val result = Await.result(future, Duration.Inf)
Run Code Online (Sandbox Code Playgroud)

但是我不想更新用户对象(密码)中的字段.怎么省略呢?

scala slick slick-3.0

2
推荐指数
1
解决办法
1814
查看次数