小编Wil*_*oft的帖子

单个文件作为Git子模块

我正在尝试确定Git存储库中共享代码的最佳实践.

到目前为止,我显然遇到了子模块,看起来他们 - 几乎 - 符合要求.我的项目是一个PHP MVC框架,结构简单:

  • /应用
  • core.php中
  • /核心

哪个app文件夹包含特定于应用程序的控制器,模型,视图等,同时core包含一般用途的文件夹,例如登录控制器.该core.php文件本身是所有请求全球处理器.

因此,我在MVC框架的所有部署中的共享代码是core.phpcore.

我可以看到如何core变成Git子模块,但不是core.php.

这甚至可能吗?我是否需要重新构建我的框架以便core.php驻留在core文件夹中,以便我可以将整个文件夹作为子模块,还是有更好的方法?

git git-submodules

14
推荐指数
3
解决办法
1万
查看次数

使用案例类/伴随对象模式时的Scala依赖注入

在迁移到Play 2.5时,我采用了依赖注入设计模式,包括(JDBC)数据库访问.

在课堂上,我理解这个概念:

class Users @Inject() (db: Database)
Run Code Online (Sandbox Code Playgroud)

但是,当您需要在案例类和伴随对象模式的方法中进行数据库访问时,我还没有看到过如何应用这种方法的讨论.一个示例基本模型是:

package models

import anorm._
import anorm.SqlParser._
import javax.inject._

import play.api.db._
import play.api.libs.functional.syntax._
import play.api.libs.json._


case class User @Inject() (db: Database) (
    id: Option[Long] = None,
    email: String
) {
    def save = {
        id.map { id => User.findById(id) } match {
            case None => create
            case _ => update
        }
    }

    def create = db.withConnection { implicit conn =>
        SQL(
            """INSERT INTO users (email) VALUES ({email})"""
        ).on(
            'email -> email
        ).executeUpdate() …
Run Code Online (Sandbox Code Playgroud)

dependency-injection scala playframework playframework-2.5

7
推荐指数
1
解决办法
1450
查看次数

从给定的[lat,lon,density]数据集生成KML热图

我希望构建一个静态KML(Google地球标记)文件,该文件以[lat,lon,density]元组的形式显示一些给定数据集的热图样式呈现.

我有一个非常简单的数据集是人口密度.

我的要求是:

  • 必须能够为给定的lat,lon提供数据
  • 必须能够指定该纬度,lon处的数据密度
  • 必须导出为KML

这些项目的要求与语言无关,因为我将离线生成这些文件,以便构建其他地方使用的KML.

我看了几个项目,最着名的是heatmap.py,它是Python中带有KML导出的gheat端口.我已经碰到了一堵砖墙,因为我发现的项目都依赖于根据输入算法的[lat,lon]点的密度构建热图.

如果我错过了一种显而易见的方法来调整我的数据集以仅仅输入[lat,lon]元组,而是调整我使用密度值来提供它们的方式,我很想知道!

kml heatmap

5
推荐指数
1
解决办法
1万
查看次数

为什么 pyspark 中的 S3 目录源的 input_file_name() 为空?

我正在尝试获取通过 AWS Glue 中的 S3 数据目录加载的每个文件的输入文件名(或路径)。

读过一些input_file_name()应该提供这些信息的地方(尽管警告说这只在调用时有效,from_catalog而不是from_options,我相信我是!)。

所以下面的代码似乎应该可以工作,但总是为每个input_file_name.

import sys

from awsglue.context import GlueContext
from awsglue.job import Job
from awsglue.utils import getResolvedOptions
from pyspark.context import SparkContext
from pyspark.sql.functions import input_file_name


args = getResolvedOptions(sys.argv, ['JOB_NAME', 'TempDir'])
sc = SparkContext()
gc = GlueContext(sc)
spark = gc.spark_session


job = Job(gc)
job.init(args['JOB_NAME'], args)


# Get the source frame from the Glue Catalog, which describes files in S3
fm_source = gc.create_dynamic_frame.from_catalog(
    database='database_name',
    table_name='table_name',
    transformation_ctx='fm_source',
) …
Run Code Online (Sandbox Code Playgroud)

amazon-s3 amazon-web-services apache-spark pyspark aws-glue

4
推荐指数
2
解决办法
3781
查看次数