小编Mff*_*nMn的帖子

在DataFlow上取消没有dataloss的作业

我正试图找到一种优雅地结束我的工作的方式,以免丢失任何数据,从PubSub流式传输并写入BigQuery.

我可以设想的一种可能的方法是让作业停止提取新数据,然后运行直到它处理完所有内容,但我不知道是否/如何实现这一点.

google-cloud-pubsub google-cloud-dataflow

7
推荐指数
1
解决办法
242
查看次数

为protobuf扩展名指定JSON名称

我在消息中添加了一条扩展消息,需要将其作为json封送.但是,扩展消息的字段名称是[message.extension_message_name].

我希望它只是命名extension_message_name,没有大括号和前缀,因为这个扩展消息存在于我们的API的其他地方,并且有这个奇怪的名称会增加混乱.

据我所知,负责的代码位于protobuf/jsonpb中,其中JSONName设置为,fmt.Sprintf("[%s]", desc.Name并且似乎无法覆盖.

任何人有一个解决方法吗?

go protocol-buffers

7
推荐指数
2
解决办法
489
查看次数