我正在尝试使用google/protobuf/timestamp.protogRPC插件和Golang.这就是我的运作方式protoc:
protoc -I ./ ./*.proto --go_out=plugins=grpc:.
Run Code Online (Sandbox Code Playgroud)
这是我的.proto:
#domain.proto
syntax = "proto3";
option java_multiple_files = true;
option java_package = "com.viant.xyz";
option java_outer_classname = "domain";
import "google/protobuf/timestamp.proto";
message Foo {
Timestamp modifiedTime = 1;
...
}
Run Code Online (Sandbox Code Playgroud)
我看到以下错误:
domain.proto: Import "google/protobuf/timestamp.proto" was not found or had errors.
domain.proto:44:5: "Timestamp" is not defined.
Run Code Online (Sandbox Code Playgroud)
我错过了什么,或者还没有支持?
我正在尝试使用 BigQuery API 删除数据集。
使用 BigQuery UI 手动删除有问题的数据集没有问题,但是当我使用 API 时,我看到以下错误:
googleapi: Error 400: Dataset myProject:myDataset is still in use, resourceInUse
Run Code Online (Sandbox Code Playgroud)
我已经检查过没有使用数据集的打开连接。
这是用于删除数据集的代码:
package main
import (
"log"
"context"
"golang.org/x/oauth2"
"golang.org/x/oauth2/jwt"
"google.golang.org/api/bigquery/v2"
)
func main() {
var authConfig *jwt.Config
var projectID = "myProject"
var datasetID = "myDataset"
ctx := context.Background()
oauthClient := oauth2.NewClient(ctx, authConfig.TokenSource(ctx))
service, err := bigquery.New(oauthClient)
if err != nil {
log.Fatal(err)
}
err = service.Datasets.Delete(projectID , datasetID).Context(ctx).Do()
if err != nil {
log.Fatal(err)
}
}
Run Code Online (Sandbox Code Playgroud) 如何在自定义 GKE 集群上运行使用超过 2 GB 的 Cloud Run 容器?
由于 Cloud Run 使用 knative,我想知道是否可以调整具有更多分配/允许内存限制的部署描述符以在 GKE 上运行它。
apiVersion: serving.knative.dev/v1alpha1
kind: Revision
metadata:
...
Run Code Online (Sandbox Code Playgroud)