小编cov*_*efe的帖子

AWS CLI 检查 lambda 函数是否存在

如何通过 CLI 一次性检查 lambda 函数是否存在?我看到了这个function-exists选项 - https://docs.aws.amazon.com/cli/latest/reference/lambda/wait/function-exists.html

但它每秒轮询一次,并在 20 次检查失败后返回失败。我只想检查一次,如果找不到就失败。有没有办法做到这一点?

amazon-web-services aws-cli aws-lambda

5
推荐指数
1
解决办法
2323
查看次数

试图创建一个标记的numpy数组

我希望有一个numpy数组,其中包含每个值的值和相应的标签.我使用这个数组进行线性回归,它将是我X在等式中的数据向量y = Xb + error.

我的X向量由大约20个变量组成,我希望每个变量都可以通过名称引用X['variable1'].我最初使用字典来做到这一点,但意识到线性回归的scikit库需要一个numpy矩阵,所以我试图建立一个标记的numpy数组.

我一直收到错误声明:

TypeError: a bytes-like object is required, not 'int'.
Run Code Online (Sandbox Code Playgroud)

这就是我正在做的事情:

X = np.array([3],dtype=[('label1','int')])
Run Code Online (Sandbox Code Playgroud)

我最终希望有20个带标签的值,如下所示:

X = np.array([3,40,7,2,...],
             dtype=[('label1',int'),('label2','int'),('label3','int')...])
Run Code Online (Sandbox Code Playgroud)

非常感谢这里的语法帮助.谢谢!

python arrays numpy

4
推荐指数
1
解决办法
2521
查看次数

Elasticsearch日期范围查询,使用两个字段

我存储的文档包含两个字段,即startDate和endDate。我想使用输入日期运行Elastic查询,并返回其startDate和endDate包含该日期的所有文档。例如,

doc1:
"_source": {
     "startDate": "2015-01-01",
     "endDate": "2015-01-10"
}
Run Code Online (Sandbox Code Playgroud)

如果我输入的日期为2015-01-02,则此文档应出现在结果中,因为输入的日期在开始日期和结束日期字段的范围内。

我可以使用一个字段进行范围查询,但由于范围仅接受一个,因此我不知道如何使用两个日期字段:

{
    "query": {
        "range" : {
            "startDate" : {
                "lte": "2015-01-02"
            }
        }
    }
}
Run Code Online (Sandbox Code Playgroud)

我还需要在同一日期执行将“ endDate”设置为“ gte”的范围查询。那将确定我需要检查的时间范围。任何意见,将不胜感激。

编辑:我最终想使用Olivere的弹性库在Go中将其转换为Elasticsearch查询。

elasticsearch

4
推荐指数
1
解决办法
3617
查看次数

如何同时使用 SparkSession 和 StreamingContext?

我正在尝试从本地计算机 (OSX) 上的文件夹中流式传输 CSV 文件。我将 SparkSession 和 StreamingContext 一起使用,如下所示:

val sc: SparkContext = createSparkContext(sparkContextName)
val sparkSess = SparkSession.builder().config(sc.getConf).getOrCreate()
val ssc = new StreamingContext(sparkSess.sparkContext, Seconds(time))

val csvSchema = new StructType().add("field_name",StringType)
val inputDF = sparkSess.readStream.format("org.apache.spark.csv").schema(csvSchema).csv("file:///Users/userName/Documents/Notes/MoreNotes/tmpFolder/")
Run Code Online (Sandbox Code Playgroud)

如果我ssc.start()在此之后运行,则会收到此错误:

java.lang.IllegalArgumentException: requirement failed: No output operations registered, so nothing to execute
Run Code Online (Sandbox Code Playgroud)

相反,如果我尝试这样开始SparkSession

inputDF.writeStream.format("console").start()
Run Code Online (Sandbox Code Playgroud)

我得到:

java.lang.IllegalStateException: Cannot call methods on a stopped SparkContext.
Run Code Online (Sandbox Code Playgroud)

显然,我不明白如何SparkSession以及StreamingContext应该一起工作。如果我摆脱了SparkSessionStreamingContext只有textFileStream我需要强加一个 CSV 模式。希望得到有关如何使其工作的任何澄清。

scala apache-spark spark-streaming spark-dataframe

4
推荐指数
1
解决办法
7931
查看次数

如何按时间范围过滤Go中的Elasticsearch结果?

我使用olivere的第5节elasticsearch库- https://godoc.org/github.com/olivere/elastic

尝试做与使用v.2库的此帖子类似的操作- 如何在按时间范围进行Go过滤结果的Elasticsearch 中搜索

但是“ NewRangeFilter”和“ NewFilteredQuery”在v.5中不可用。v.5(https://godoc.org/github.com/olivere/elastic#Aggregations.DateRange)中有一个'DateRange'API ,我可以从Aggregation中调用它,但是它需要一个字符串,所以我不这样做不知道我该传递什么。

到目前为止,这是我尝试构建的汇总。在那之后,我不确定传递给DateRange函数的内容。我有一个名为“ tmpindex”的索引,类型为“ user”,每个文档都有一个“ timestamp”属性,该属性是整数。

timeline := elasticClient.NewTermsAggregation().Field("timestamp").Size(10).OrderByCountDesc()

    searchResult, err := elasticClient.Search().
        Index("tmpindex"). // search in index "tmpindex"
        Aggregation("timeline", timeline).
        From(0).Size(10).        // take documents 0-9
        Pretty(true).            // pretty print request and response JSON
        Do(context.Background()) // execute
    if err != nil {
        return err
    }
Run Code Online (Sandbox Code Playgroud)

go elasticsearch elasticsearch-5

2
推荐指数
1
解决办法
1984
查看次数

Spark 读取 Avro 文件

我正在使用 com.databricks.spark.avro。当我像这样从spark-shell运行它时:spark-shell --jar spark-avro_2.11-4.0.0.jar,我可以通过这样做来读取文件:

import org.apache.spark.sql.SQLContext
val sqlContext = new SQLContext(sc)
val avroInput = sqlContext.read.format("com.databricks.spark.avro").load(inputPath)
avroInput.write.format("com.databricks.spark.avro").save(outputPath)
Run Code Online (Sandbox Code Playgroud)

但是如果我尝试使用我的项目做同样的事情sbt clean run,我会得到:

java.lang.ClassNotFoundException: Failed to find data source: org.apache.spark.sql.avro.AvroFileFormat. Please find packages at http://spark.apache.org/third-party-projects.html
[info]   at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:657)
[info]   at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:194)
[info]   at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:178)
[info]   at com.databricks.spark.avro.package$AvroDataFrameReader$$anonfun$avro$2.apply(package.scala:34)
Run Code Online (Sandbox Code Playgroud)

"com.databricks" %% "spark-avro" % "4.0.0"列在我的依赖项中,并且位于我的外部库中。我还缺少另一个依赖项吗?

scala avro apache-spark spark-avro

2
推荐指数
1
解决办法
1万
查看次数

Python one-liner if else语句

这个问题来自codingbat.给定两个int值,返回它们的总和.除非两个值相同,否则返回两倍的总和.

我试图在一行中解决它:

def sum_double(a, b):
    return 2*(a+b) if (a == b) else return a+b
Run Code Online (Sandbox Code Playgroud)

但我收到了一个错误,我不知道为什么.非常感谢任何帮助.

python

1
推荐指数
2
解决办法
1394
查看次数

MathNet Numerics 中 Matrix、SparseMatrix 和 DenseMatrix 之间的区别?

我知道有些矩阵有很多数据,而另一些矩阵主要是 0 或者是空的。但是,与创建 DenseMatrix 对象来保存稀疏矩阵相比,创建 SparseMatrix 对象来保存稀疏矩阵的优势是什么?就方法而言,它们似乎都提供或多或少相同的操作。

我还想知道什么时候你会使用 Matrix 对象来保存数据——因为在有什么优势或情况下,这比使用其他两个更受欢迎。

c# sparse-matrix mathnet-numerics math.net

0
推荐指数
1
解决办法
3068
查看次数