一般集群信息:
我正在尝试让kube-prometheus-stack舵图发挥作用。这似乎对大多数目标都有效,但是,某些目标保持不变,如下面的屏幕截图所示。

有什么建议吗?我如何获得kube-etcd并kube-controller-manager通过kube-scheduler进行监控Prometheus?
我部署了此处提到的 Helm Chart ,并应用了此处的建议来让 kube-proxy 受监控Prometheus。
预先感谢您的任何帮助!
编辑1:
- job_name: monitoring/my-stack-kube-prometheus-s-kube-controller-manager/0
honor_timestamps: true
scrape_interval: 30s
scrape_timeout: 10s
metrics_path: /metrics
scheme: http
bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
relabel_configs:
- source_labels: [__meta_kubernetes_service_label_app]
separator: ;
regex: kube-prometheus-stack-kube-controller-manager
replacement: $1
action: keep
- source_labels: [__meta_kubernetes_service_label_release]
separator: ;
regex: my-stack
replacement: $1
action: keep
- source_labels: [__meta_kubernetes_endpoint_port_name] …Run Code Online (Sandbox Code Playgroud) kubernetes prometheus kubernetes-helm kube-controller-manager kube-scheduler
伙计们,我正在使用 Google Cloud Kubernetes Engine。我想浏览一些应该可用的日志,即 kube-controller-manager 日志。我确定我最近在相同的设置上完成了这项工作,但我现在无法弄清楚。所以事情是这样的:
kube-controller-manager在kube-system命名空间中没有任何相关的组件。我试过了:kubectl get pods -namespace=kube-system/var/log与kube-controller-manager. 通过 SSH 连接到所有节点 (VM) 并尝试浏览/var/logs//etc/kubernetes/manifests而且它是kube-proxy一个。我期待有kube-controller-manager和其他一些人在该目录中。有人可以指出我应该寻找的地方吗?这最近在 GKE 上有改变吗?
logging kubernetes google-kubernetes-engine kube-controller-manager
如果 Pod 的状态为Failed,Kubernetes 将尝试创建新的 Pod,直到terminated-pod-gc-threshold到达kube-controller-manager。这将Failed在集群中留下许多 Pod,需要进行清理。
除了这个之外还有其他原因Evicted会导致PodFailed吗?
我是K8的新手.在将Openstack Cinder配置为K8s StorageClass的过程中,我必须向我的kube控制器管理器添加一些标志,我发现这是我的大问题.我在VM中使用K8s 1.11,而我的K8s群集有一个kube-controller-manager pod,但我不知道如何将这些标志添加到我的kube-controller-manager.经过几个小时的搜索,我发现有很多任务需要向kube-controller-manager添加标志,但没有确切的文档指导我如何做到这一点.请跟我分享一下它的方法.
谢谢.
我已经开始使用 docker 镜像并设置 Kubernetes。我已经修复了所有问题,但我遇到了 pod 娱乐超时的问题。
如果一个 pod 正在一个特定节点上运行并且我将其关闭,则在另一个在线节点上重新创建 pod 将需要大约 5 分钟的时间。
我检查了所有可能的配置文件,还设置了所有 pod-eviction-timeout、horizontal-pod-autoscaler-downscale、horizontal-pod-autoscaler-downscale-delay 标志,但它仍然无法正常工作。
当前 kube 控制器管理器配置:
spec:
containers:
- command:
- kube-controller-manager
- --address=192.168.5.135
- --allocate-node-cidrs=false
- --authentication-kubeconfig=/etc/kubernetes/controller-manager.conf
- --authorization-kubeconfig=/etc/kubernetes/controller-manager.conf
- --client-ca-file=/etc/kubernetes/pki/ca.crt
- --cluster-cidr=192.168.5.0/24
- --cluster-signing-cert-file=/etc/kubernetes/pki/ca.crt
- --cluster-signing-key-file=/etc/kubernetes/pki/ca.key
- --controllers=*,bootstrapsigner,tokencleaner
- --kubeconfig=/etc/kubernetes/controller-manager.conf
- --leader-elect=true
- --node-cidr-mask-size=24
- --requestheader-client-ca-file=/etc/kubernetes/pki/front-proxy-ca.crt
- --root-ca-file=/etc/kubernetes/pki/ca.crt
- --service-account-private-key-file=/etc/kubernetes/pki/sa.key
- --use-service-account-credentials=true
- --horizontal-pod-autoscaler-downscale-delay=20s
- --horizontal-pod-autoscaler-sync-period=20s
- --node-monitor-grace-period=40s
- --node-monitor-period=5s
- --pod-eviction-timeout=20s
- --use-service-account-credentials=true
- --horizontal-pod-autoscaler-downscale-stabilization=20s
image: k8s.gcr.io/kube-controller-manager:v1.13.0
Run Code Online (Sandbox Code Playgroud)
谢谢你。