无法跨 n 个部署副本挂载只读 Kubernetes 持久卷

Jon*_*onB 5 google-compute-engine kubernetes

我从 gcePersistentDisk 创建了一个 Kubernetes 只读多个持久卷,如下所示:

apiVersion: v1
kind: PersistentVolume
metadata:
    name: ferret-pv-1
spec:
    capacity:
    storage: 500Gi
    accessModes:
      - ReadOnlyMany
    persistentVolumeReclaimPolicy: Retain
    gcePersistentDisk:
      pdName: data-1
      partition: 1
      fsType: ext4
Run Code Online (Sandbox Code Playgroud)

它从现有的 gcePersistentDisk 分区创建持久卷,该分区上已经有 ext4 文件系统:

$ kubectl get pv
NAME          CAPACITY   ACCESSMODES   RECLAIMPOLICY   STATUS    CLAIM                    REASON    AGE
ferret-pv-1   500Gi      ROX           Retain          Bound     default/ferret-pvc             5h
Run Code Online (Sandbox Code Playgroud)

然后,我创建一个 Kubernetes 只读多个持久卷声明,如下所示:

kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: ferret-pvc
spec:
  accessModes:
    - ReadOnlyMany
  resources:
    requests:
      storage: 500Gi
Run Code Online (Sandbox Code Playgroud)

它绑定到我上面创建的只读 PV:

$ kubectl get pvc
NAME         STATUS    VOLUME        CAPACITY   ACCESSMODES   AGE
ferret-pvc   Bound     ferret-pv-1   500Gi      ROX           5h
Run Code Online (Sandbox Code Playgroud)

然后,我使用刚刚创建的 PVC 创建一个包含 2 个副本的 Kubernetes 部署,如下所示:

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: ferret2-deployment
spec:
  replicas: 2
  template:
    metadata:
      labels:
        name: ferret2
    spec:
      containers:
      - image: us.gcr.io/centered-router-102618/ferret2
        name: ferret2
        ports:
        - name: fjds
          containerPort: 1004
          hostPort: 1004
        volumeMounts:
          - name: ferret-pd
            mountPath: /var/ferret
            readOnly: true
      volumes:
          - name: ferret-pd
            persistentVolumeClaim:
              claimName: ferret-pvc
Run Code Online (Sandbox Code Playgroud)

部署已创建:

$ kubectl get deployments
NAME                 DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
ferret2-deployment   2         2         2            1           4h
Run Code Online (Sandbox Code Playgroud)

但是,当我查看部署中相应的两个 pod 时,只有第一个出现:

$ kubectl get pods
NAME                                  READY     STATUS              RESTARTS   AGE
ferret2-deployment-1336109949-2rfqd   1/1       Running             0          4h
ferret2-deployment-1336109949-yimty   0/1       ContainerCreating   0          4h
Run Code Online (Sandbox Code Playgroud)

查看第二个没有出现的 Pod:

$ kubectl describe pod ferret2-deployment-1336109949-yimty

Events:
  FirstSeen     LastSeen        Count   From                            SubObjectPath   Type        Reason      Message
  ---------     --------        -----   ----                            -------------   --------        ------      -------
  4h        1m          128     {kubelet gke-sim-cluster-default-pool-e38a7605-kgdu}            Warning     FailedMount     Unable to mount volumes for pod "ferret2-deployment-1336109949-yimty_default(d1393a2d-9fc9-11e6-a873-42010a8a009e)": timeout expired waiting for volumes to attach/mount for pod "ferret2-deployment-1336109949-yimty"/"default". list of unattached/unmounted volumes=[ferret-pd]
  4h        1m          128     {kubelet gke-sim-cluster-default-pool-e38a7605-kgdu}            Warning     FailedSync      Error syncing pod, skipping: timeout expired waiting for volumes to attach/mount for pod "ferret2-deployment-1336109949-yimty"/"default". list of unattached/unmounted volumes=[ferret-pd]
  4h        55s         145     {controller-manager }                           Warning     FailedMount     Failed to attach volume "ferret-pv-1" on node "gke-sim-cluster-default-pool-e38a7605-kgdu" with: googleapi: Error 400: The disk resource 'data-1' is already being used by 'gke-sim-cluster-default-pool-e38a7605-fyx4'
Run Code Online (Sandbox Code Playgroud)

它拒绝启动第二个 Pod,因为它认为第一个 Pod 独占使用 PV。但是,当我登录到第一个声明 PV 的 pod 时,我看到它已将该卷安装为只读:

$ kubectl exec -ti ferret2-deployment-1336109949-2rfqd -- bash
root@ferret2-deployment-1336109949-2rfqd:/opt/ferret# mount | grep ferret
/dev/sdb1 on /var/ferret type ext4 (ro,relatime,data=ordered)
Run Code Online (Sandbox Code Playgroud)

我是否遗漏了有关使用同一 PVC 在部署中的多个 Pod 之间安装只读 PV 的信息?该磁盘未被任何其他容器挂载。由于它以只读方式安装在第一个 pod 上,我预计部署中的第二个和任何其他副本在声明/安装它时都没有问题。另外 - 我如何让 ReadWriteOnce 正常工作以及如何指定哪个 pod 挂载卷 rw?

Saa*_*Ali 8

PV/PVC接入方式仅用于绑定PV/PVC。

在您的 Pod 模板中,确保设置spec.volumes.persistentVolumeClaim.readOnlytrue。这可确保卷以只读模式附加。

另外,在您的 pod 模板中,请确保设置spec.containers.volumeMounts[x].readOnly为 true。这可确保卷以只读模式安装。

另外,由于您正在预先配置您的 PV。确保在 PV 上设置claimRef现场,以确保没有其他 PVC 意外绑定到它。请参阅/sf/answers/2402658401/


Jen*_*Jen 1

要通过 gcePersistentDisk 备份卷,必须首先将磁盘安装到使用该卷的 pod 正在运行的 VM 实例。

这是由 kubernetes 自动完成的,但根据我的经验,即使使用此清单:

apiVersion: v1
kind: PersistentVolume
metadata:
    name: map-service-pv
spec:
    capacity:
      storage: 25Gi
    accessModes:
      - ReadOnlyMany
    persistentVolumeReclaimPolicy: Retain
    storageClassName: ssd
    gcePersistentDisk:
      pdName: map-service-data
      readOnly: true
      fsType: ext4
Run Code Online (Sandbox Code Playgroud)

它将其安装到 RW 模式的实例。这可以防止磁盘安装到任何其他实例。因此,如果您的 Pod 在不同的节点(实例)上运行,除了一个之外的所有节点都会获得googleapi: Error 400: The disk resource xxx is already being used by....

您可以在 Google Cloud Console 中进行检查:计算引擎 -> 磁盘 -> 找到您的磁盘 -> 单击“正在使用”链接,将您带到实例。在那里您可以看到附加磁盘及其模式。

可以在控制台中手动更改模式。然后第二个吊舱应该能够安装。


编辑:这个解决方案似乎不起作用。我在 Kuberentes 的 GitHub 上打开了一个问题:https ://github.com/kubernetes/kubernetes/issues/67313


归档时间:

查看次数:

18676 次

最近记录:

7 年,4 月 前