只有 1 个 pod 处理 Kubernetes 集群中的所有请求

lig*_*sky 3 load-balancing go kubernetes

这是 minikube Kubernetes 的清单文件,用于部署和服务:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: hello-deployment
spec:
  selector:
    matchLabels:
      app: hello
  replicas: 3
  template:
    metadata:
      labels:
        app: hello
    spec:
      containers:
      - name: hello
        image: hello_hello
        imagePullPolicy: Never
        ports:
        - containerPort: 4001
          protocol: TCP
---
apiVersion: v1
kind: Service
metadata:
  name: hello
spec:
  selector:
    app: hello
  ports:
  - port: 4001
    nodePort: 30036
    protocol: TCP
  type: NodePort
Run Code Online (Sandbox Code Playgroud)

以及一个用 Golang 编写的简单 HTTP 服务器

package main
import (
    http "net/http"

    "github.com/gin-gonic/gin"
)

func main() {
    r := gin.Default()
    r.GET("/ping", func(c *gin.Context) {
        c.JSON(200, gin.H{
            "message": "pong",
        })
    })

    server := &http.Server{
        Addr:    ":4001",
        Handler: r,
    }

    server.ListenAndServe()
}
Run Code Online (Sandbox Code Playgroud)

当我向IP:30036/ping发出多个请求,然后打开 pod 的日志时,我可以看到 3 个 pod 中只有 1 个处理所有请求。如何让其他 Pod 响应请求?

Tho*_*mas 7

您使用 NodePort 公开服务,因此没有反向代理,但您直接连接到您的 Pod。这是一个不错的选择。(稍后您可能想使用 Ingress)

您看到的是只有一个 Pod 处理您的请求。您希望每个请求都负载均衡到不同的 pod。而且你的假设是正确的,但是负载均衡不是发生在 HTTP 请求层,而是发生在 TCP 层。

因此,当您拥有一个持久的 TCP 连接并重新使用它时,您将不会体验到您期望的负载平衡。由于建立 TCP 连接在延迟方面相当昂贵,因此通常会进行优化以避免重复打开新的 TCP 连接:HTTP 保持活动。

在大多数框架和客户端中默认启用保持活动,Go 也是如此。试试看s.SetKeepAlivesEnabled(false)是否能解决您的问题。(仅推荐用于测试!)

您还可以使用多个不同的客户端,从命令行使用 curl 或在 Postman 中禁用 keep-alive。


Kam*_*san 5

在 Kubernetes 集群中,发送到 k8s 服务的请求通过kube-proxy进行路由。

默认kube-proxy模式是Iptalbles从 Kubernetes v1.2 开始的,它允许服务和后端 Pod 之间更快的数据包解析。后端 Pod 之间的负载平衡直接通过iptables rules.

也许您没有生成足够的负载,而一个 pod 无法处理,这就是您从 路由到同一个 pod 的原因kube-proxy

您还可以查看此问题的答案以实现自定义iptalbes-rule