hmm*_*rst 5 google-bigquery google-cloud-dataflow apache-beam
我想从 Cloud Pub/Sub 读取数据并使用 Cloud Dataflow 将其写入 BigQuery。每个数据都包含一个表 ID,数据本身将保存在其中。
写入 BigQuery 失败的因素有多种:
当其中一个失败发生时,流式作业将重试该任务并停止。我尝试使用WriteResult.getFailedInserts()以挽救坏数据并避免停顿,但效果不佳。有什么好办法吗?
这是我的代码:
public class StarterPipeline {
private static final Logger LOG = LoggerFactory.getLogger(StarterPipeline.class);
public class MyData implements Serializable {
String table_id;
}
public interface MyOptions extends PipelineOptions {
@Description("PubSub topic to read from, specified as projects/<project_id>/topics/<topic_id>")
@Validation.Required
ValueProvider<String> getInputTopic();
void setInputTopic(ValueProvider<String> value);
}
public static void main(String[] args) {
MyOptions options = PipelineOptionsFactory.fromArgs(args).withValidation().as(MyOptions.class);
Pipeline p = Pipeline.create(options);
PCollection<MyData> input = p
.apply("ReadFromPubSub", PubsubIO.readStrings().fromTopic(options.getInputTopic()))
.apply("ParseJSON", MapElements.into(TypeDescriptor.of(MyData.class))
.via((String text) -> new Gson().fromJson(text, MyData.class)));
WriteResult writeResult = input
.apply("WriteToBigQuery", BigQueryIO.<MyData>write()
.to(new SerializableFunction<ValueInSingleWindow<MyData>, TableDestination>() {
@Override
public TableDestination apply(ValueInSingleWindow<MyData> input) {
MyData myData = input.getValue();
return new TableDestination(myData.table_id, null);
}
})
.withSchema(new TableSchema().setFields(new ArrayList<TableFieldSchema>() {{
add(new TableFieldSchema().setName("table_id").setType("STRING"));
}}))
.withFormatFunction(new SerializableFunction<MyData, TableRow>() {
@Override
public TableRow apply(MyData myData) {
return new TableRow().set("table_id", myData.table_id);
}
})
.withCreateDisposition(BigQueryIO.Write.CreateDisposition.CREATE_IF_NEEDED)
.withWriteDisposition(BigQueryIO.Write.WriteDisposition.WRITE_APPEND)
.withFailedInsertRetryPolicy(InsertRetryPolicy.neverRetry()));
writeResult.getFailedInserts()
.apply("LogFailedData", ParDo.of(new DoFn<TableRow, TableRow>() {
@ProcessElement
public void processElement(ProcessContext c) {
TableRow row = c.element();
LOG.info(row.get("table_id").toString());
}
}));
p.run();
}
}
Run Code Online (Sandbox Code Playgroud)
在管道定义中写入输出时,没有简单的方法可以捕获异常。我想你可以通过编写自定义来做到这一点PTransform为 BigQuery来实现。但是,在 Apache Beam 中无法原生实现。我还建议不要这样做,因为它会破坏 Cloud Dataflow 的自动重试功能。
在您的代码示例中,您将失败的插入重试策略设置为从不重试。您可以将策略设置为始终重试。这仅在诸如间歇性网络故障之类的情况下有效(第 4 点)。
.withFailedInsertRetryPolicy(InsertRetryPolicy.alwaysRetry())
Run Code Online (Sandbox Code Playgroud)
如果表 ID 格式不正确(第 1 个要点),那么CREATE_IF_NEEDED即使表 ID 不正确,创建处置配置也应允许 Dataflow 作业自动创建新表而不会出错。
如果数据集不存在或者数据集存在访问权限问题(第 2 和第 3 点),那么我的观点是流作业应该停止并最终失败。没有人工干预,在任何情况下都无法进行。
| 归档时间: |
|
| 查看次数: |
1505 次 |
| 最近记录: |