小编sag*_*sag的帖子

将谷歌数据流管道的结果写入多个汇点

我想将Google数据流管道结果写入多个接收器.

比如,我想使用TextIO将结果写入Google Cloud Storage,并将结果写为BigQuery中的表格.我怎样才能做到这一点?

google-cloud-dataflow

3
推荐指数
1
解决办法
861
查看次数

分割定界单值字符向量

我有一个用户提供的String类似"Mon,Tue,Wed,Thu,Fri"。请注意,该值是用户提供的输入。用户可以提供诸如此类的东西"Mon,Tue,Wed"

我想将其作为矢量,将用于绘图和进一步分析。

由于用户提供的值是一个逗号分隔的值,因此我们需要将该值分成多个单独的值,然后构造向量。

有什么办法可以直接构造向量。

即我应该从“星期一,星期二,星期三,星期四,星期五”获取向量。如预期的那样,下面的代码返回单个值向量。

> weekdays <- c(days)

> print(weekdays)
[1] "Mon,Tue,Wed,Thu,Fri"
Run Code Online (Sandbox Code Playgroud)

但是我需要下面的东西

> days <- c("Mon","Tue","Wed","Thu","Fri")
> print(days)
[1] "Mon" "Tue" "Wed" "Thu" "Fri"
Run Code Online (Sandbox Code Playgroud)

请注意,我没有读取CSV文件。我只是试图读取用户提供的单个CSV行作为矢量。

r vector

2
推荐指数
1
解决办法
443
查看次数

如何获取composer数据文件夹的GCS路径

我需要将文件从 FTP 服务器复制到特定的 GCS 位置。我正在使用 ftp_hook 将文件下载到 /data 文件夹中。我需要将此文件移动到不同的 GCS 存储桶,而不是 Composer GCS 存储桶。

我正在尝试使用GoogleCloudStorageToGoogleCloudStorageOperator运算符将文件从 Composer 存储桶复制到所需的存储桶。为此,我需要在 Airflow 任务中读取 Composer 存储桶。我不想将其添加为自定义变量,因为我的作曲家本身是动态创建的。那么如何获取我的数据文件夹所在的composer存储桶的信息呢?

airflow google-cloud-composer

1
推荐指数
1
解决办法
3853
查看次数

如何在heroku中重命名postgres数据库

我添加了heroku postgres插件.

DATABASE_URL类似于postgres:// xxxxxxxxx:xxxxxxxx@xxxxxxxxx.compute-1.amazonaws.com:5432/ddo2ahvosfggq

我希望数据库名称类似于my_app_database.我想将ddo2ahvosfggq重命名为my_app_database.

我怎样才能做到这一点?

我可以使用ALTER DATABASE吗?http://www.postgresql.org/docs/9.1/static/sql-alterdatabase.html

StackOverflow中已经有一个问题如何在Heroku中重命名数据库?

但答案是重命名应用程序.我不知道重命名应用程序将如何工作?

如果my_app是我的heroku应用程序的名称.以下DATABASE_URL会起作用吗?

Postgres的:// XXXXXXXXX:xxxxxxxx@xxxxxxxxx.compute-1.amazonaws.com:5432/my_app应用

postgresql ruby-on-rails heroku

0
推荐指数
1
解决办法
836
查看次数

Spring Cloud consul 中的令牌支持

我们正在使用 spring-cloud 来读取我们应用程序的配置。我们在 application.yaml 中有类似的结构

spring:
  cloud:
    consul:
      host: consul_host
      port: 8500
Run Code Online (Sandbox Code Playgroud)

我们想为 consul 启用 ACL。所以我们需要通过consul token来通过 spring 读取配置。如何在 application.yaml 中指定 consul 令牌

spring consul spring-cloud

0
推荐指数
1
解决办法
2479
查看次数

BigQuery 将存储数据的位置

我正在使用 BigQueryIO 从 Google Dataflow 作业将数据发布到 BigQuery。

AFAIK,BigQuery 可用于查询来自 Google Cloud Storage、Google Drive 和 Google Sheets 的数据。

但是当我们使用 BigQueryIO 存储数据时,数据将存储在哪里?它在 Google Cloud Storage 中吗?

google-cloud-storage google-bigquery google-cloud-dataflow

0
推荐指数
2
解决办法
3038
查看次数

Google BigQuery是否支持ARRAY &lt;STRING&gt;?

我正在将数据从Google数据流推送到Google BigQuery。我有TableRow数据对象。TableRow中的一列确实包含字符串数组。

这里开始,我发现Google BigQuery支持Array列类型。所以我试图用ARRAY<SCHEMA>as类型创建表。但是我收到以下错误

com.google.api.client.googleapis.json.GoogleJsonResponseException: 400 Bad Request
{
  "code" : 400,
  "errors" : [ {
    "domain" : "global",
    "message" : "Invalid value for: ARRAY<STRING> is not a valid value",
    "reason" : "invalid"
  } ],
  "message" : "Invalid value for: ARRAY<STRING> is not a valid value"
}
com.google.cloud.dataflow.sdk.util.UserCodeException.wrapIf(UserCodeException.java:47)
com.google.cloud.dataflow.sdk.util.DoFnRunnerBase.wrapUserCodeException(DoFnRunnerBase.java:369)
com.google.cloud.dataflow.sdk.util.DoFnRunnerBase.finishBundle(DoFnRunnerBase.java:162)
com.google.cloud.dataflow.sdk.runners.worker.SimpleParDoFn.finishBundle(SimpleParDoFn.java:194)
com.google.cloud.dataflow.sdk.runners.worker.ForwardingParDoFn.finishBundle(ForwardingParDoFn.java:47)
Run Code Online (Sandbox Code Playgroud)

这是我用来将值发布到BigQuery中的代码

    .apply(BigQueryIO.Write.named("Write enriched data")
               .withCreateDisposition(BigQueryIO.Write.CreateDisposition.CREATE_IF_NEEDED)
               .withSchema(getSchema())
               .withWriteDisposition(BigQueryIO.Write.WriteDisposition.WRITE_APPEND)
               .to("table_name"));
Run Code Online (Sandbox Code Playgroud)

这是架构构造

private static TableSchema getSchema() {
    List<TableFieldSchema> fields = new ArrayList<>();

    fields.add(new TableFieldSchema().setName("column1").setType("STRING"));
    fields.add(new …
Run Code Online (Sandbox Code Playgroud)

google-bigquery google-cloud-platform google-cloud-dataflow

0
推荐指数
1
解决办法
743
查看次数