我想将Google数据流管道结果写入多个接收器.
比如,我想使用TextIO将结果写入Google Cloud Storage,并将结果写为BigQuery中的表格.我怎样才能做到这一点?
我有一个用户提供的String类似"Mon,Tue,Wed,Thu,Fri"
。请注意,该值是用户提供的输入。用户可以提供诸如此类的东西"Mon,Tue,Wed"
。
我想将其作为矢量,将用于绘图和进一步分析。
由于用户提供的值是一个逗号分隔的值,因此我们需要将该值分成多个单独的值,然后构造向量。
有什么办法可以直接构造向量。
即我应该从“星期一,星期二,星期三,星期四,星期五”获取向量。如预期的那样,下面的代码返回单个值向量。
> weekdays <- c(days)
> print(weekdays)
[1] "Mon,Tue,Wed,Thu,Fri"
Run Code Online (Sandbox Code Playgroud)
但是我需要下面的东西
> days <- c("Mon","Tue","Wed","Thu","Fri")
> print(days)
[1] "Mon" "Tue" "Wed" "Thu" "Fri"
Run Code Online (Sandbox Code Playgroud)
请注意,我没有读取CSV文件。我只是试图读取用户提供的单个CSV行作为矢量。
我需要将文件从 FTP 服务器复制到特定的 GCS 位置。我正在使用 ftp_hook 将文件下载到 /data 文件夹中。我需要将此文件移动到不同的 GCS 存储桶,而不是 Composer GCS 存储桶。
我正在尝试使用GoogleCloudStorageToGoogleCloudStorageOperator运算符将文件从 Composer 存储桶复制到所需的存储桶。为此,我需要在 Airflow 任务中读取 Composer 存储桶。我不想将其添加为自定义变量,因为我的作曲家本身是动态创建的。那么如何获取我的数据文件夹所在的composer存储桶的信息呢?
我添加了heroku postgres插件.
DATABASE_URL类似于postgres:// xxxxxxxxx:xxxxxxxx@xxxxxxxxx.compute-1.amazonaws.com:5432/ddo2ahvosfggq
我希望数据库名称类似于my_app_database.我想将ddo2ahvosfggq重命名为my_app_database.
我怎样才能做到这一点?
我可以使用ALTER DATABASE吗?http://www.postgresql.org/docs/9.1/static/sql-alterdatabase.html
StackOverflow中已经有一个问题如何在Heroku中重命名数据库?
但答案是重命名应用程序.我不知道重命名应用程序将如何工作?
如果my_app是我的heroku应用程序的名称.以下DATABASE_URL会起作用吗?
Postgres的:// XXXXXXXXX:xxxxxxxx@xxxxxxxxx.compute-1.amazonaws.com:5432/my_app应用
我们正在使用 spring-cloud 来读取我们应用程序的配置。我们在 application.yaml 中有类似的结构
spring:
cloud:
consul:
host: consul_host
port: 8500
Run Code Online (Sandbox Code Playgroud)
我们想为 consul 启用 ACL。所以我们需要通过consul token来通过 spring 读取配置。如何在 application.yaml 中指定 consul 令牌
我正在使用 BigQueryIO 从 Google Dataflow 作业将数据发布到 BigQuery。
AFAIK,BigQuery 可用于查询来自 Google Cloud Storage、Google Drive 和 Google Sheets 的数据。
但是当我们使用 BigQueryIO 存储数据时,数据将存储在哪里?它在 Google Cloud Storage 中吗?
我正在将数据从Google数据流推送到Google BigQuery。我有TableRow
数据对象。TableRow中的一列确实包含字符串数组。
从这里开始,我发现Google BigQuery支持Array列类型。所以我试图用ARRAY<SCHEMA>
as类型创建表。但是我收到以下错误
com.google.api.client.googleapis.json.GoogleJsonResponseException: 400 Bad Request
{
"code" : 400,
"errors" : [ {
"domain" : "global",
"message" : "Invalid value for: ARRAY<STRING> is not a valid value",
"reason" : "invalid"
} ],
"message" : "Invalid value for: ARRAY<STRING> is not a valid value"
}
com.google.cloud.dataflow.sdk.util.UserCodeException.wrapIf(UserCodeException.java:47)
com.google.cloud.dataflow.sdk.util.DoFnRunnerBase.wrapUserCodeException(DoFnRunnerBase.java:369)
com.google.cloud.dataflow.sdk.util.DoFnRunnerBase.finishBundle(DoFnRunnerBase.java:162)
com.google.cloud.dataflow.sdk.runners.worker.SimpleParDoFn.finishBundle(SimpleParDoFn.java:194)
com.google.cloud.dataflow.sdk.runners.worker.ForwardingParDoFn.finishBundle(ForwardingParDoFn.java:47)
Run Code Online (Sandbox Code Playgroud)
这是我用来将值发布到BigQuery中的代码
.apply(BigQueryIO.Write.named("Write enriched data")
.withCreateDisposition(BigQueryIO.Write.CreateDisposition.CREATE_IF_NEEDED)
.withSchema(getSchema())
.withWriteDisposition(BigQueryIO.Write.WriteDisposition.WRITE_APPEND)
.to("table_name"));
Run Code Online (Sandbox Code Playgroud)
这是架构构造
private static TableSchema getSchema() {
List<TableFieldSchema> fields = new ArrayList<>();
fields.add(new TableFieldSchema().setName("column1").setType("STRING"));
fields.add(new …
Run Code Online (Sandbox Code Playgroud)