我正在尝试使用HTTPS L7负载均衡器为GKE设置HTTPS负载均衡器,但由于某种原因无效.甚至是HTTP负载平衡演练中的HTTP负载均衡器.转发规则的IP地址已创建,我可以ping和telnet到端口80.但是当通过curl请求时,它会给我一个错误.
<title>502 Server Error</title> </head> <body text=#000000
bgcolor=#ffffff> <h1>Error: Server Error</h1> <h2>The server
encountered a temporary error and could not complete your request.
<p>Please try again in 30 seconds.</h2> <h2></h2> </body></html>
Run Code Online (Sandbox Code Playgroud)
所有步骤都很好,我创建了一个没有任何标签的防火墙$ {NODE_PORT},但它没有用.
有谁遇到过这个问题?
google-compute-engine google-kubernetes-engine google-cloud-http-load-balancer
安装Google Cloud Bigquery模块后,如果我将该模块导入python代码。我看到此警告消息。发生在python 3.7.3 Virtualenv中。
尝试重新安装GCP bigquery模块如果我们编写“从google.cloud import bigquery”,则应输入python代码。不会导致任何错误或消息。
import os
import sys
import logging
from datetime import datetime
from google.cloud import bigquery
Run Code Online (Sandbox Code Playgroud)
/home/informatica/.local/lib/python3.7/site-packages/pandas/compat/__init__.py:84: UserWarning: Could not import the lzma module. Your installed Python is incomplete. Attempting to use lzma compression will result in a RuntimeError.
warnings.warn(msg)
exit()
Run Code Online (Sandbox Code Playgroud) 我按照本指南设置了nginx入口控制器.
入口运行良好,我也可以访问defaultbackend服务和我自己的服务.
但是,在查看在Google Cloud Console中创建的对象时,特别是自动创建的负载均衡器对象时,我注意到其他节点的运行状况检查失败:

这是因为入口控制器进程只在一个节点上运行,所以它是唯一通过运行状况检查的进程吗?如何让其他节点通过?
nginx kubernetes google-kubernetes-engine kubernetes-health-check gke-networking
我创建了一个 python 脚本来从 Google Cloud Storage 存储桶中获取 JSON 文件并将其加载到数据集中。我在尝试指定与文本文件位于同一存储桶中的架构时遇到问题
我的架构文件是一个 txt 文件,格式如下Attribute:DataType,Attribute:DataType
这就是我所拥有的
job_config = bigquery.LoadJobConfig()
schema_uri = 'gs://<bucket-name>/FlattenedProduct_schema.txt'
schema = schema_uri
job_config.schema = schema
job_config.source_format = bigquery.SourceFormat.NEWLINE_DELIMITED_JSON
uri = 'gs://<bucket-name>/FlattenedProduct_JSON.txt'
load_job = client.load_table_from_uri(
uri,
dataset_ref.table('us_states'),
location='US', # Location must match that of the destination dataset.
job_config=job_config) # API request
Run Code Online (Sandbox Code Playgroud) 我们使用 MySQL (Cloud SQL) 作为 Dataproc 的元数据存储库。这不会存储不属于 Hive 外部表的 GCS 文件的任何信息。
谁能建议将所有文件/数据详细信息存储在 Google Cloud 的一个目录中的最佳方法?
google-cloud-storage google-cloud-platform google-cloud-dataproc google-data-catalog
我试图进一步了解在Google的Kubernetes Engine中配置私有集群时到底发生了什么。
Google在此处提供了一个示例,该示例提供了一个私有集群,其中控制平面服务(例如Kubernetes API)位于172.16.0.16/28子网中。
https://cloud.google.com/kubernetes-engine/docs/how-to/private-clusters
gcloud beta container clusters create pr-clust-1 \
--private-cluster \
--master-ipv4-cidr 172.16.0.16/28 \
--enable-ip-alias \
--create-subnetwork ""
当我运行此命令时,我看到:
bash$ gcloud compute networks subnets list | grep us-west1
default us-west1 default 10.138.0.0/20
gke-insti3-subnet-62d565a0 us-west1 default 10.2.56.0/22
(venv) Christophers-MacBook-Pro:Stratus-Cloud christophermutzel$ gcloud compute networks peerings list
NAME NETWORK PEER_PROJECT PEER_NETWORK AUTO_CREATE_ROUTES STATE STATE_DETAILS
gke-62d565a060f347e0fba7-3094-3230-peer default gke-prod-us-west1-a-4180 gke-62d565a060f347e0fba7-3094-bb01-net True ACTIVE [2018-08-23T16:42:31.351-07:00]: Connected.
gke-62d565a060f347e0fba7-3094-bb01-net是否是Google为GKE服务管理的Kubernetes管理终结点所在的对等VPC(控制平面范围为172.16 / 16)?
此外-我的请求如何发送到Kubernetes API服务器?